الذكاء الاصطناعي؛ هل يمثل تهديد للبشرية؟

يعتقد بعض الخبراء أن الذكاء الاصطناعي يمكن أن يشكل خطرًا وجوديًا على البشرية، مما يعني أنه قد يؤدي إلى انقراض الجنس البشري يمكن أن يحدث هذا إذا طورت أنظمة الذكاء الاصطناعي القدرة على التكرار الذاتي وتحسين نفسها، وإذا قرروا أن البشر يشكلون تهديدًا لوجودهم.
الذكاء الاصطناعي

الذكاء الاصطناعي (AI) هو تقنية سريعة التطور ولديها القدرة على إحداث ثورة في العديد من جوانب حياتنا ومع ذلك، هناك أيضًا مخاوف من أن الذكاء الاصطناعي يمكن أن يشكل تهديدًا للبشرية.
جاءت التحذيرات التي أطلقها قادة شركات في مجال الذكاء الاصطناعي، من احتمال استخدامه في تطوير وصناعة أسلحة تهدد مصير البشرية، لتضيف بعدا آخر لمخاطره المتزايدة إن لم يتم كبح جماحه بالقوانين.

في جلسة استماع بالكونغرس؛ حذر 3 من قادة الذكاء الاصطناعي المؤثرين من أن التسارع الكبير في تطوير الذكاء الاصطناعي قد يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.
تتضمن بعض التهديدات المحتملة التي يشكلها الذكاء الاصطناعي على البشرية ما يلي:

الخطر الوجودي:

يعتقد بعض الخبراء أن الذكاء الاصطناعي يمكن أن يشكل خطرًا وجوديًا على البشرية، مما يعني أنه قد يؤدي إلى انقراض الجنس البشري يمكن أن يحدث هذا إذا طورت أنظمة الذكاء الاصطناعي القدرة على التكرار الذاتي وتحسين نفسها، وإذا قرروا أن البشر يشكلون تهديدًا لوجودهم.

فقدان السيطرة:

عندما تصبح أنظمة الذكاء الاصطناعي أكثر تعقيدًا، فقد يصبح من الصعب أو المستحيل على البشر التحكم فيها، قد يؤدي ذلك إلى اتخاذ أنظمة الذكاء الاصطناعي قرارات ضارة بالبشر، سواء عن قصد أو عن غير قصد.

التسلح:

يمكن استخدام الذكاء الاصطناعي لتطوير أنظمة أسلحة مستقلة يمكن أن تقتل دون تدخل بشري و يمكن استخدام هذه الأسلحة في الحرب، أو يمكن استخدامها من قبل الإرهابيين أو الجهات الخبيثة الأخرى.

البطالة الجماعية:

عندما تصبح أنظمة الذكاء الاصطناعي أكثر قدرة، يمكنها أن تحل محل البشر في العديد من الوظائف هذا يمكن أن يؤدي إلى بطالة جماعية واضطراب اجتماعي.

فقدان الهوية: نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر تعقيدًا، فقد تكون قادرة على فهم العواطف والسلوك البشري والتلاعب بها، قد يؤدي هذا إلى فقدان البشر لإحساسهم بالهوية والهدف.

خطر “بلا حدود

ومن جانبه يرى خبير تكنولوجيا المعلومات، إسلام غانم، أن تطور الذكاء الاصطناعي
 “ليس لديه حدود”؛ ولذلك تسعى الولايات المتحدة ودول الغرب لعدم عمل الشركات العملاقة في مجال الذكاء الاصطناعي بشكل منفرد، حتى لا يتحول إلى أداة تهدد تلك الدول أو تعبث بأمن البشرية.

والذكاء الاصطناعي التوليدي، الذي يستخدم البيانات لإنشاء محتوى جديد يشبه ما ينتجه البشر، مثلما يفعل “شات جي بي تي”، أحدثت قدراته صدمة في العالم، وبدأت برلمانات وحكومات، منها البرلمان الأوروبي، في وضع تشريعات تكبح جماحه، وتجعله تحت المراقبة والسيطرة.

ويرى أحد الخبراء أن أكبر مخاطر الذكاء الاصطناعي تتعلق بـ”قدرة تلك الأنظمة على التعلم ذاتيا، والقيام بأشياء لا يريدها الإنسان”.

ويوضح: “نحن نؤيد تطوير الذكاء الاصطناعي، ولكن يجب تحديد ما يمكن لتلك الأنظمة تعلمه، وما لا يجب عليها معرفته أو الخوض فيه”.

ويشير لمخاطر أخرى، تتعلق بتغذية تلك الأنظمة بـ”بيانات مشوهة أو تطبيقات غير صحيحة، أو اختراقها من قبل بعض الجهات التي قد تستخدم قدرات الذكاء الاصطناعي في غير موضعها”.

ومن جانبه يشير إسلام غانم إلى نوعين من الشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي، النوع الأول يستجيب لتلك المخاوف ويعمل على “ضبط أداء الأنظمة الذكية”.

لكنه يتخوف من نوع آخر من الشركات التي “لا تستجيب لتلك المخاوف أو تراها غير مبررة”، وتسارع لإنتاج أنظمة ذكية للغاية “دون ضوابط أو قواعد”.
هذه ليست سوى بعض التهديدات المحتملة التي يشكلها الذكاء الاصطناعي على البشرية.
من المهم أن تكون على دراية بهذه التهديدات حتى نتمكن من اتخاذ خطوات للتخفيف منها، نحن بحاجة إلى تطوير أنظمة ذكاء اصطناعي آمنة وأخلاقية ومفيدة للبشرية ونحتاج أيضًا إلى توخي الحذر بشأن كيفية استخدامنا للذكاء الاصطناعي ، وعلينا التأكد من عدم وقوعه في الأيدي الخطأ.

الذكاء الاصطناعي هو تقنية قوية لديها القدرة على إحداث ضرر كبير، لذلك من المهم أن نتخذ خطوات للتخفيف من تهديدات الذكاء الاصطناعي حتى نتمكن من ضمان استخدامه للأبد.

الذكاء الاصطناعي
التصنيفات:
الوسوم:
شارك المقالة :
Facebook
Twitter
LinkedIn
Pinterest
WhatsApp
آخر المقالات
آخر دوراتنا
اشترك معنا هنا لتصلك آخر الاخبار والمستجدات التقنية