قال عالم بريطاني معروف بإسهاماته في الذكاء الاصطناعي لشبكة سكاي نيوز إن أنظمة الذكاء الاصطناعي القوية “لا يمكن السيطرة عليها” و “تسبب الضرر بالفعل”.
كان البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير في الشهر الماضي وقع خطاب مفتوح يدعو إلى توقف لمدة ستة أشهر في تطوير أنظمة أكثر قدرة من OpenAI التي تم إطلاقها حديثًا GPT-4 – خليفة chatbot عبر الإنترنت ChatGPT المدعوم من GPT-3.5.
السمة الرئيسية للنموذج الجديد هي قدرته على التعرف على الصور وشرحها.
في حديثه إلى سكاي صوفي ريدج، قال البروفيسور راسل عن الرسالة: “لقد وقعت عليها لأنني أعتقد أنه يجب أن يقال إننا لا نفهم كيف [more powerful] تعمل الأنظمة. لا نعرف ما الذي يمكنهم فعله. وهذا يعني أننا لا نستطيع السيطرة عليهم، ولا يمكننا حملهم على التصرف بأنفسهم “.
وقال إن “الناس قلقون بشأن التضليل والتحيز العنصري والجنساني في مخرجات هذه الأنظمة”.
وجادل مع التقدم السريع لـ منظمة العفو الدولية، كان هناك حاجة إلى وقت “لتطوير اللوائح التي من شأنها التأكد من أن الأنظمة مفيدة للناس وليست ضارة”.
قال إن أحد أكبر المخاوف هو المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص تم تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر – يتم استخدامه عادةً بشكل ضار أو لنشر معلومات كاذبة).
قال إنه على الرغم من أن المعلومات المضللة كانت موجودة منذ فترة طويلة لأغراض “الدعاية” ، فإن الاختلاف الآن هو أنه، باستخدام Sophy Ridge كمثال، يمكنه أن يطلب من GPT-4 محاولة “التلاعب” بها حتى تكون “أقل دعمًا لها” أوكرانيا “.
وقال إن التكنولوجيا ستقرأ وجود ريدج على وسائل التواصل الاجتماعي وما قالته أو كتبته على الإطلاق، ثم تقوم بحملة تدريجية “لتعديل” موجزها الإخباري.
قال البروفيسور راسل لـ Ridge: “الاختلاف هنا هو أنه يمكنني الآن أن أطلب من GPT-4 قراءة كل شيء عن وجود Sophy Ridge على وسائل التواصل الاجتماعي، كل ما قالته أو كتبته Sophy Ridge ، كل شيء عن أصدقاء Sophy Ridge ثم ابدأ حملة تدريجيًا عن طريق التعديل موجز الأخبار الخاص بك، ربما ترسل أحيانًا بعض الأخبار المزيفة إلى موجز الأخبار الخاص بك بحيث تكون أقل دعمًا لأوكرانيا، وتبدأ في الضغط بقوة على السياسيين الذين يقولون إنه يجب علينا دعم أوكرانيا في الحرب ضد روسيا وما إلى ذلك.
“سيكون ذلك سهلاً للغاية. والشيء المخيف حقًا هو أننا يمكن أن نفعل ذلك لمليون شخص مختلف قبل الغداء.”
حذر الخبير، وهو أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي، من “التأثير الهائل لهذه الأنظمة إلى الأسوأ من خلال التلاعب بالناس بطرق لا يدركون حتى حدوثها”.
وصفه ريدج بأنه “مخيف حقًا” وسأل عما إذا كان هذا النوع من الأشياء يحدث الآن، فأجابه الأستاذ: “من المحتمل جدًا، نعم”.
وقال إن الصين وروسيا وكوريا الشمالية لديها فرق كبيرة “تضخ المعلومات المضللة” وباستخدام الذكاء الاصطناعي “أعطيناهم أداة قوية”.
“قلق الرسالة يتعلق حقًا بالجيل القادم من النظام. في الوقت الحالي، تعاني الأنظمة من بعض القيود في قدرتها على إنشاء خطط معقدة.”
اقرأ أكثر:
ما هو GPT-4 وكيف يتم تحسينه على ChatGPT؟
كشف Elon Musk عن خطة لبناء TruthGPT على الرغم من تحذيره من مخاطر الذكاء الاصطناعي
واقترح أنه في ظل الجيل التالي من الأنظمة، أو الذي يليه، يمكن أن تدار الشركات بواسطة أنظمة الذكاء الاصطناعي. وأضاف: “يمكن أن ترى حملات عسكرية تنظمها أنظمة ذكاء اصطناعي”.
“إذا كنت تبني أنظمة أقوى من البشر، فكيف يحافظ البشر على سلطتهم على تلك الأنظمة إلى الأبد؟ هذا هو الشاغل الحقيقي وراء الرسالة المفتوحة.”
قال الأستاذ إنه كان يحاول إقناع الحكومات بالحاجة إلى البدء في التخطيط للمستقبل عندما “نحتاج إلى تغيير الطريقة التي يعمل بها نظامنا البيئي الرقمي بأكمله …”.
منذ إصداره العام الماضي، حث ChatGPT التابع لشركة Microsoft OpenAI المدعوم من Microsoft المنافسين على تسريع تطوير نماذج لغات كبيرة مماثلة وشجع الشركات على دمج نماذج الذكاء الاصطناعي التوليدية في منتجاتها.
المملكة المتحدة تكشف عن مقترحات للوائح “اللمسة الخفيفة” حول الذكاء الاصطناعي
يأتي كما كشفت حكومة المملكة المتحدة مؤخرًا مقترحات لإطار تنظيمي “خفيف” حول الذكاء الاصطناعي.
من شأن نهج الحكومة، الموضح في ورقة السياسة، أن يقسم المسؤولية عن إدارة الذكاء الاصطناعي بين المنظمين لحقوق الإنسان، والصحة والسلامة، والمنافسة، بدلاً من إنشاء هيئة جديدة مخصصة للتكنولوجيا.