تهديدات الذكاء الاصطناعي

بالإضافة إلى تهديدها الوجودي، يتم التركيز على الطريقة التي سيؤثر بها الذكاء الاصطناعي سلبًا على الخصوصية والأمان وخير مثال على ذلك استخدام الصين لتكنولوجيا التعرف على الوجه في المكاتب والمدارس وأماكن أخرى إلى جانب تتبع تحركات الشخص، قد تكون الحكومة الصينية قادرة على جمع بيانات كافية لمراقبة أنشطة الشخص وعلاقاته ووجهات نظره السياسية.

نظرًا لأن الذكاء الاصطناعي ينمو بشكل أكثر تعقيدًا وانتشارًا، فإن الأصوات تتعالى محذرة من المخاطر المحتملة للذكاء الاصطناعي

“الذكاء الاصطناعي يخيفني بشدة، إنها قادرة على تحقيق أكثر بكثير مما يعرفه أي شخص تقريبًا، ومعدل التحسن هائل ” ، هكذا قال إيلون ماسك


هل الذكاء الاصطناعي يشكل تهديدا؟

ناقش مجتمع التكنولوجيا منذ فترة طويلة التهديدات التي يشكلها الذكاء الاصطناعي وقد تمت الإشارة إلى أتمتة الوظائف وانتشار الأخبار المزيفة وسباق التسلح الخطير للأسلحة التي تعمل بالذكاء الاصطناعي باعتبارها من أكبر المخاطر التي يشكلها الذكاء الاصطناعي.

وهنا نذكر أبرز المخاطر المحتملة من انتشاء وتوسع العمل بالذكاء الاصطناعي:


1. فقدان الوظيفة بسبب أتمتة الذكاء الاصطناعي

تعد أتمتة الوظائف التي تعمل بالذكاء الاصطناعي مصدر قلق ملح حيث يتم اعتماد التكنولوجيا في صناعات في مختلف القطاعات، من المتوقع فقدان 85 مليون وظيفة إلى لصالح الأتمتة بين عامي 2020 و2025، وذلك فإن فئات كثيرة من الوظائف معرضة للخطر الكبير.

السبب في انخفاض معدل البطالة لدينا، والذي لا يجذب في الواقع الأشخاص الذين لا يبحثون عن عمل، هو إلى حد كبير أن وظائف قطاع الخدمات ذات الأجور المنخفضة قد تم إنشاؤها بقوة بواسطة هذا الاقتصاد.

روبوتات الذكاء الاصطناعي تصبح أكثر ذكاءً وأكثر مهارة، وتتطلب نفس المهام عددًا أقل من البشر وفي حين أنه من الصحيح أن الذكاء الاصطناعي سيخلق97 مليون وظيفة جديدة بحلول عام 2025، لن يمتلك العديد من الموظفين المهارات اللازمة لهذه الأدوار الفنية ويمكن أن يتخلفوا عن الركب إذا لم تصقل الشركات مهارات القوى العاملة لديهم

2. التلاعب الاجتماعي

تقرير 2018 عن الانتهاكات المحتملة للذكاء الاصطناعي يدرج التلاعب الاجتماعي كأحد أهم مخاطر الذكاء الاصطناعي أصبح هذا الخوف حقيقة واقعة حيث يعتمد السياسيون على المنصات للترويج لوجهات نظرهم ومن الأمثلة الحديثة على ذلك الترويج للانتخابات.

يعمل التيك توك حالياً على ملف خوارزمية الذكاء الاصطناعي حيث تغذية المستخدم بمحتوى متعلق بالوسائط السابقة التي شاهدوها على المنصة ويستهدف انتقاد التطبيق هذه العملية وفشل الخوارزمية في تصفية المحتوى الضار وغير الدقيق، مما يثير الشكوك حول قدرة تيك توك على حماية مستخدميها من وسائل الإعلام الخطيرة والمضللة.

أصبحت وسائل الإعلام والأخبار عبر الإنترنت أكثر ضبابية في ضوء التزييف العميق للتسلل إلى المجالات السياسية والاجتماعية، تسهل هذه التقنية استبدال صورة شخصية بأخرى في صورة أو مقطع فيديو و نتيجة لذلك، الجهات الفاعلة السيئة لديها وسيلة أخرى لتبادل المعلومات المضللة والدعاية للحرب، مما يخلق سيناريو كابوسًا حيث قد يكون من المستحيل تقريبًا التمييز بين الأخبار الجديرة بالثقة والأخبار الخاطئة.

3. المراقبة الاجتماعية باستخدام تقنية الذكاء الاصطناعي

بالإضافة إلى تهديدها الوجودي، يتم التركيز على الطريقة التي سيؤثر بها الذكاء الاصطناعي سلبًا على الخصوصية والأمان وخير مثال على ذلك استخدام الصين لتكنولوجيا التعرف على الوجه في المكاتب والمدارس وأماكن أخرى إلى جانب تتبع تحركات الشخص، قد تكون الحكومة الصينية قادرة على جمع بيانات كافية لمراقبة أنشطة الشخص وعلاقاته ووجهات نظره السياسية.

مثال آخر هو احتضان دوائر الشرطة الأمريكية خوارزميات الشرطة التنبؤية لتوقع أين ستحدث الجرائم. المشكلة هي أن هذه الخوارزميات تتأثر بمعدلات الاعتقال التي تؤثر بشكل غير متناسب على المجتمعات السوداء ثم تضاعف إدارات الشرطة من هذه المجتمعات، مما يؤدي إلى المبالغة في ممارسة الشرطة وتساؤلات حول ما إذا كانت الديمقراطيات المزعومة قادرة على مقاومة تحويل الذكاء الاصطناعي إلى سلاح استبدادي.

4. التحيز بسبب الذكاء الاصطناعي

الأشكال المختلفة من انحياز الذكاء الاصطناعي ضارة أيضًا وفي حديثها لصحيفة نيويورك تايمز، قالت أستاذة علوم الكمبيوتر في جامعة برينستون، أولغا روساكوفسكي يذهب انحياز الذكاء الاصطناعي إلى ما هو أبعد من الجنس والعرق بالإضافة إلى البيانات والتحيز الحسابي، تم تطوير الذكاء الاصطناعي من قبل البشر والبشر متحيزون بطبيعتهم.

باحثو الذكاء الاصطناعي هم في الأساس من الذكور، الذين ينتمون إلى مجموعات سكانية عرقية معينة، نشأوا في مناطق اجتماعية واقتصادية عالية، وخاصة الأشخاص غير المعوقين ونحن سكان متجانسون إلى حد ما، لذلك من الصعب التفكير على نطاق واسع في قضايا العالم.

لذا يجب على المطورين والشركات ممارسة قدر أكبر من الحذر لتجنب إعادة إنشاء تحيزات وأحكام مسبقة قوية تعرض الأقليات للخطر.

5. اتساع رقعة عدم المساواة الاجتماعية والاقتصادية كنتيجة للذكاء الاصطناعي

يعد اتساع التفاوت الاجتماعي والاقتصادي الناجم عن فقدان الوظائف الناتج عن الذكاء الاصطناعي سببًا آخر للقلق، حيث يكشف عن التحيزات الطبقية لكيفية تطبيق الذكاء الاصطناعي، لقد اختبر العمال ذوو الياقات الزرقاء الذين يؤدون المزيد من المهام اليدوية المتكررة انخفاض الأجور بنسبة تصل إلى 70 في المائة بسبب الأتمتة.

في غضون ذلك، ظل العمال ذوو الياقات البيضاء بمنأى عن التأثر إلى حد كبير، حتى أن بعضهم يتمتع بأجور أعلى.

تفشل الادعاءات الكاسحة بأن الذكاء الاصطناعي قد تغلب بطريقة ما على الحدود الاجتماعية أو خلق المزيد من الوظائف في رسم صورة كاملة لتأثيراته لذا فمن الضروري حساب الاختلافات على أساس العرق والفئة والفئات الأخرى بخلاف ذلك، يصبح إدراك كيف يفيد الذكاء الاصطناعي والأتمتة بعض الأفراد والجماعات على حساب الآخرين أكثر صعوبة.

6. إضعاف الأخلاق والنوايا الحسنة بسبب الذكاء الاصطناعي

إلى جانب التقنيين والصحفيين والشخصيات السياسية، حتى القادة الدينيون يدقون ناقوس الخطر بشأن المخاطر الاجتماعية والاقتصادية المحتملة للذكاء الاصطناعي، فقد تم التحذير في العام 2019 من قدرة الذكاء الاصطناعي على لتعميم الآراء المغرضة وبيانات كاذبة مما يدعونا للحذر من العواقب بعيدة المدى للسماح لهذه التكنولوجيا بالتطور دون إشراف أو تقييد مناسب.

وقد قام العديد بتطبيق التكنولوجيا للتخلص من مهام الكتابة، وهذا يهدد النزاهة الأكاديمية والإبداع  وحتى في محاولات جعل الأداة أقل سمية، استغلت شركة أوبن إيه آي العمال الكينيين بأجور زهيدة لأداء العمل.

يخشى البعض أنه بغض النظر عن عدد الشخصيات القوية التي تشير إلى مخاطر الذكاء الاصطناعي، فإننا سنستمر في دفع الظرف به إذا كان هناك أموال يتعين جنيها.

7. أسلحة مستقلة مدعومة بالذكاء الاصطناعي

كما هو الحال في كثير من الأحيان، تم تسخير التقدم التكنولوجي لغرض الحرب وعندما يتعلق الأمر بالذكاء الاصطناعي، يحرص البعض على فعل شيء حيال ذلك قبل فوات الأوان: في2016 رسالة مفتوحة، أكثر من 30000 فرد رفضوا الاستثمار في أسلحة ذاتية التشغيل تعمل بالذكاء الاصطناعي.

وكتبوا: “السؤال الرئيسي بالنسبة للبشرية اليوم هو ما إذا كان ينبغي بدء سباق تسلح عالمي للذكاء الاصطناعي أو منعه من الانطلاق”. “إذا مضت أي قوة عسكرية كبرى في تطوير أسلحة الذكاء الاصطناعي، فإن سباق التسلح العالمي أمر حتمي تقريبًا، ونقطة نهاية هذا المسار التكنولوجي واضحة

وقد أتى هذا التوقع ثماره في شك لأنظمة الأسلحة الفتاكة ذاتية التشغيل، التي تحدد وتدمير الأهداف من تلقاء نفسها مع الالتزام بالقليل من اللوائح بسبب انتشار الأسلحة القوية والمعقدة، استسلمت بعض أقوى دول العالم للقلق وساهمت في تكنولوجيا الحرب الباردة.

تشكل العديد من هذه الأسلحة الجديدة مخاطر كبيرة على المدنيين على الأرض، لكن الخطر يتضخم عندما تقع الأسلحة المستقلة في الأيدي الخطأ وإذا لم يتم كبح الخصومات السياسية والميول الحربية، فقد ينتهي الأمر بتطبيق الذكاء الاصطناعي بأسوأ النوايا.

8. الأزمات المالية

القطاع المالي أصبح أكثر تقبلاً لمشاركة تقنية الذكاء الاصطناعي في عمليات التمويل والتجارة اليومية وقد يكون مسؤولاً عن أزمتنا المالية الكبرى التالية في الأسواق وفي حين أن خوارزميات الذكاء الاصطناعي لا تحجبها الأحكام والعواطف البشرية، فإنها أيضًالا تأخذ في الاعتبار السياقات والترابط بين الأسواق وعوامل مثل الثقة والخوف البشري وتقوم هذه الخوارزميات بعد ذلك بإجراء آلاف الصفقات بوتيرة مذهلة بهدف البيع بعد بضع ثوانٍ لتحقيق أرباح صغيرة قد يؤدي بيع آلاف الصفقات إلى تخويف المستثمرين للقيام بنفس الشيء، مما يؤدي إلى حدوث أعطال مفاجئة وتقلبات شديدة في السوق.

هذا لا يعني أن الذكاء الاصطناعي ليس لديه ما يقدمه لعالم المال في الواقع، يمكن أن تساعد خوارزميات الذكاء الاصطناعي المستثمرين على القيام بذلك قرارات أكثر ذكاءً وأكثر استنارة فى السوق لكن المنظمات المالية بحاجة إلى التأكد من ذلك فهم خوارزميات الذكاء الاصطناعي الخاصة بهم وكيف تتخذ هذه الخوارزميات القرارات.

لذا يجب على الشركات النظر ما إذا كان الذكاء الاصطناعي يرفع أو يقلل من ثقتهم قبل إدخال التكنولوجيا لتجنب إثارة المخاوف بين المستثمرين وإحداث فوضى مالية.

التصنيفات:
الوسوم:
شارك المقالة :
Facebook
Twitter
LinkedIn
Pinterest
WhatsApp
آخر المقالات
آخر دوراتنا
اشترك معنا هنا لتصلك آخر الاخبار والمستجدات التقنية