حذرت دراسة أميركية من بعض نماذج الذكاء الاصطناعي القادرة على خداع المطورين، حيث يمكنها ادعاء وجهات نظر مختلفة الترتيب مع الاحتفاظ بالتفضيلات الأصلية.
وتشير الدراسة التي أجرتها شركة "أنثروبيك" إلى أنه لا داعي للفزع حالياً، إذ أن نتائج البحث قد تكون بالغة الأهمية لفهم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المستقبلية ذات القدرات المتقدمة حسبما نقلته العربية نت.
بدوره أشار موقع "تك كرانش"، المتخصص في التكنولوجيا، إلى أن الدراسة، تناولت ما قد يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي للقيام بمهمة "لا يرغب" في القيام بها.
وفي الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة المسيئة، بما في ذلك نموذج "كلاود 3 أوبس" الخاص بشركة أنثروبيك، والذي تم إعادة تدريبه ليقدم دائمًا ردودًا على الأسئلة المسيئة، مما أدى إلى تضارب في المبادئ. كما أُبلغت النماذج أن ردودها ستخضع للمراقبة وتُستخدم لإعادة التدريب.
يذكر إلى أن العديد من المطورين يلجأون إلى الذكاء الاصطناعي لتطوير برامج متعلقة بالانترنت و أساليب الحياة.

