قد يكون متشدداً.. دراسة جديدة تكشف خطر مرعب لـ الذكاء الإصطناعي


الاحد 21 مايو 2023 | 01:46 مساءً
الذكاء الإصطناعي
الذكاء الإصطناعي
فريق-السعودي اليوم

تحمس الجميع في بداية الأمر بـ تقنية الذكاء الإصطناعي, نظراً لـ قدراته الهائلة و إمكانياته, إلا أن سرعان ما إنهار هذا الحماس, و تبدد بـ المخاوف و القلق من مخاطر الذكاء الإصطناعي بـ البشرية و إستمراريتها.

مخاوف الأب الروحي لـ الذكاء الإصطناعي من مخاطره

وقد تضاعفت هذه المخاوف, بـ جانب التحذيرات من مخاطر الذكاء الإصطناعي، بعد إعلان الأمريكي جيوفري هينتون الذي يعد 'الأب الروحي' لـ لذكاء الاصطناعي والتعلم الآلي ندمه على تطوير هذه التكنولوجيا بسبب مخاطرها.

حيث قرر جيوفري هينتون إستقالته من عمله في شركة التكنولوجيا وخدمات الإنترنت الأمريكية جوجل في أوائل مايو الحالي, مؤكداً إن الذكاء الإصطناعي يمكن أن يؤدي إلى فقدان أعداد كبيرة من الوظائف التي سيمكن تأديتها بالذكاء الاصطناعي بدلاً من البشر.

ومخاوف هينتون, جاءت بـ التزامن مع توقيع رؤساء شركات التكنولوجيا في الولايات المتحدة الأمريكية, خطابًا يدعو إلي وقف تطوير تكنولوجيا الذكاء الإصطناعي لمدة 6 أشهر، خوفًا من 'تطوير عقول اصطناعية يمكن أن تصبح أذكى وأكثر عددًا لكي تحل محلنا وتتفوق علينا... وبعد ذلك نواجه خطر فقدان السيطرة على الحضارة الإنسانية'.

دراسة تكشف خطر جديد لـ الذكاء الإصطناعي

هذا, وعلي جانب أخر, نشرت دراسة أكاديمية في مجلة 'ساينس أدفانسز', تفيد بـ أن أحكام أنظمة الذكاء الاصطناعي المستخدمة في تقييم المشاركات على مواقع التواصل الاجتماعي يمكن أن تكون أقسي من حكم المراجعين البشر.

ويشار إلي أن أنه يتم إستخدام تقنيات الذكاء الإصطناعي بدلًا من البشر لمراجعة الشكاوى والتقارير, التي يرسلها مستخدمو منصات التواصل الاجتماعي ضد المحتوى المنشور على المنصات، لكن غالبًا ما لا تستطيع هذه التقنيات إتخاذ القرار المناسب بشأن التزام المنشورات على المنصة بالقواعد المقررة.

ومن جانبهم, فقد أوضح الباحثون خلال دراستهم, أنه من المحتمل أن تكون أحكام أنظمة الذكاء الاصطناعي على المنشورات, بـ طريقة 'مختلفة وأكثر تشددًا من أحكام الموظفين البشر'.

ومن جهته, أفاد ميرزه جاسيمي الأستاذ المساعد في معهد ماساشوستس للتكنولوجيا 'إم.آي.تي'، بقوله 'أعتقد أن أغلب الباحثين في مجال الذكاء الاصطناعي والتعلم الآلي يفترضون أن تقييمات البشر للبيانات والمنشورات تكون متحيزة، لكن نتيجة هذه الدراسة تكشف عن شيء أسوأ. فهذه الأنظمة الآلية لا تعيد فقط إنتاج التقييمات البشرية المتحيزة، وإنما تعاني من وجود ثغرات في البيانات التي تعتمد عليها' في إصدار التقييمات.

وعبر ميرزه جاسيمي عن تحذيره, وذلك من خلال قوله 'سينتهي بنا الأمر وقد أصبح لدينا أنظمة ذكاء اصطناعي أكثر تشددًا في التعامل مع محتوى منصات التواصل الاجتماعي من المراقبين البشر. فالمراقبون البشر يستطيعون رصد الفروقات الطفيفة بين الرسائل، لكن نماذج الذكاء الاصطناعي لا تفعل ذلك'.

اقرأ أيضا