قالت Timnit Gebru ، القائدة المشاركة لفريق الذكاء الاصطناعي الأخلاقي في Google ، إنها طُردت لإرسالها رسالة بريد إلكتروني اعتبرتها الإدارة “غير متوافقة مع توقعات مدير Google”.
كان البريد الإلكتروني والفصل تتويجًا لنحو أسبوع من الجدل حول طلب الشركة بأن تتراجع Gebru عن ورقة أخلاقيات الذكاء الاصطناعي التي شاركت في كتابتها مع ستة آخرين ، بما في ذلك أربعة موظفين في Google ، والتي تم تقديمها للنظر فيها في مؤتمر صناعي العام المقبل ، قال جيبرو في مقابلة يوم الخميس. إذا لم تتراجع عن الورقة ، فقد أرادت Google على الأقل إزالة أسماء موظفي Google.
طلبت جبرو من نائبة رئيس Google Research ميجان كاتشوليا توضيحًا لها وأخبرتها أنه بدون مزيد من المناقشة حول الورقة والطريقة التي تم التعامل بها معها ، فإنها ستخطط للاستقالة بعد فترة انتقالية. وأرادت أيضًا التأكد من أنها كانت واضحة بشأن ما سيحدث في المستقبل ، والمشروعات البحثية المماثلة التي قد يقوم بها فريقها.
قالت: “نحن فريق يسمى Ethical AI ، بالطبع سنكتب عن مشاكل الذكاء الاصطناعي”.
في هذه الأثناء ، شارك Gebru في مجموعة بريد إلكتروني لباحثي الشركة تسمى Google Brain Women and Allies ، علقًا على تقرير كان الآخرون يعملون عليه حول عدد النساء اللواتي تم توظيفهن من قبل Google أثناء الوباء. قالت جيبرو إنه من خلال تجربتها ، من غير المرجح أن تكون مثل هذه الوثائق فعالة لأنه لن يتم تحميل أي شخص في Google المسؤولية. وأشارت إلى تجربتها مع ورقة منظمة العفو الدولية المقدمة إلى المؤتمر وربطتها بالتقرير.
كتب جيبرو في رسالة البريد الإلكتروني التي حصلت عليها بلومبرج نيوز: “توقف عن كتابة مستنداتك لأنها لا تحدث فرقًا”. “لا توجد وسيلة لمزيد من المستندات أو المزيد من المحادثات لتحقيق أي شيء.” تم نشر البريد الإلكتروني في وقت سابق من قبل الكاتب التقني كيسي نيوتن.
في اليوم التالي ، قالت جبرو إنها طُردت عبر البريد الإلكتروني ، برسالة من كاشوليا تقول إن Google لا تستطيع تلبية مطالبها وتحترم قرارها بمغادرة الشركة نتيجة لذلك. ذهب البريد الإلكتروني ليقول إن “جوانب معينة من البريد الإلكتروني الذي أرسلته الليلة الماضية إلى موظفين غير إداريين في مجموعة الدماغ تعكس سلوكًا لا يتوافق مع توقعات مدير Google” ، وفقًا لتغريدات نشرها Gebru ، والتي تسمى أيضًا على وجه التحديد جيف دين ، الذي يرأس قسم الذكاء الاصطناعي في Google ، لمشاركته في إزالتها.
لقد تم طردي من قبل تضمين التغريدة لبريدي الإلكتروني إلى Brain women and Allies. تم قطع حسابي المؤسسي. لذلك تم فصلي على الفور 🙂
– تيمنيت جيبرو (timnitGebru) 3 ديسمبر 2020
قالت جبرو في المقابلة حول تصرفات Google فيما يتعلق بورقتها البحثية: “إنه أهم إسكات أساسي”. “لا يمكنك حتى أن يكون لديك صوت علمي.”
لم يرد ممثلو شركة Google ومقرها ماونتن فيو بولاية كاليفورنيا على طلبات متعددة للتعليق.
نشرت مجموعة الاحتجاج في Google Google Walkout For Real Change عريضة لدعم Gebru on Medium ، والتي جمعت أكثر من 400 توقيع من الموظفين في الشركة وأكثر من 500 من الشخصيات الأكاديمية والصناعية.
تتعامل الورقة البحثية المعنية مع القضايا الأخلاقية المحتملة لنماذج اللغة الكبيرة ، وهو مجال بحث تتابعه OpenAI و Google وغيرهما. قالت جبرو إنها لا تعرف سبب مخاوف Google بشأن الورقة ، والتي قالت إنها وافق عليها مديرها وقدمت إلى آخرين في Google للتعليق.
قالت جيبرو إن Google تطلب الحصول على موافقة مسبقة من جميع منشورات باحثيها ، وأخبرتها الشركة أن هذه الورقة لم تتبع الإجراءات المناسبة. تم تقديم التقرير إلى مؤتمر ACM حول العدالة والمساءلة والشفافية ، وهو مؤتمر شارك Gebru في تأسيسه ويعقد في مارس.
وحددت الورقة مخاطر استخدام النماذج اللغوية الكبيرة لتدريب الخوارزميات التي يمكنها ، على سبيل المثال ، كتابة تغريدات ، والإجابة على الأسئلة ، وترجمة الشعر ، وفقًا لنسخة من الوثيقة. يتم تدريب النماذج بشكل أساسي من خلال تحليل اللغة من الإنترنت ، والتي لا تعكس قطاعات كبيرة من سكان العالم الذين لم يتصلوا بالإنترنت بعد ، وفقًا للصحيفة. يسلط جيبرو الضوء على الخطر المتمثل في أن النماذج ستعكس فقط النظرة العالمية للأشخاص الذين تم منحهم امتيازًا كافيًا ليكونوا جزءًا من بيانات التدريب.
يعد Gebru ، أحد خريجي مختبر ستانفورد للذكاء الاصطناعي ، أحد الأصوات الرائدة في الاستخدام الأخلاقي للذكاء الاصطناعي. اشتهرت بعملها في دراسة تاريخية في عام 2018 أظهرت كيف أخطأ برنامج التعرف على الوجه في التعرف على النساء ذوات البشرة الداكنة بنسبة تصل إلى 35 بالمائة من الوقت ، في حين عملت التكنولوجيا بدقة قريبة على الرجال البيض.
كانت أيضًا منتقدة صريحة لنقص التنوع والمعاملة غير المتكافئة للعمال السود في شركات التكنولوجيا ، ولا سيما في Alphabet’s Google ، وقالت إنها تعتقد أن فصلها كان يهدف إلى إرسال رسالة إلى بقية موظفي Google بعدم التحدث.
تحت الضغط في وضع حرج
كانت التوترات تتصاعد بالفعل في قسم الأبحاث في Google. بعد وفاة جورج فلويد ، الرجل الأسود الذي قُتل أثناء اعتقال ضباط الشرطة البيضاء في مينيابوليس في مايو ، عقد القسم اجتماعاً شاملاً حيث تحدث موظفو Google عن تجاربهم في الشركة. توقف كثير من الناس عن البكاء ، وفقًا للأشخاص الذين حضروا الاجتماع.
كشفت جبرو عن إطلاق النار مساء الأربعاء في سلسلة تغريدات قوبلت بدعم من بعض زملائها في Google وغيرهم في الميدان.
كتب رومان شودري ، الذي عمل سابقًا كرئيس للذكاء الاصطناعي المسؤول في Accenture Applied Intelligence ويدير الآن شركة أسستها تسمى Parity: Gebru هو “سبب إلهام العديد من مهندسي الجيل القادم وعلماء البيانات وغيرهم للعمل في مجال التكنولوجيا”.
تعرضت Google ، إلى جانب عمالقة التكنولوجيا الأمريكيين الآخرين ، بما في ذلك Amazon و Facebook ، لانتقادات شديدة من الحكومة بسبب مزاعم التحيز والتمييز وتم استجوابها بشأن ممارساتها في العديد من جلسات استماع اللجان في واشنطن.
قبل عام ، فصلت Google أربعة موظفين لما قالت إنها انتهاكات لسياسات أمن البيانات. سلطت عمليات الفصل الضوء على التوترات المتصاعدة بالفعل بين الإدارة والعاملين النشطاء في شركة كانت ذات يوم تحظى بالاحترام لثقافة الشركة المفتوحة. لجأ جيبرو إلى Twitter في ذلك الوقت لدعم أولئك الذين فقدوا وظائفهم.
بالنسبة إلى عملاق البحث على الويب ، يأتي الإنهاء المزعوم لـ Gebru في الوقت الذي تواجه فيه الشركة شكوى من المجلس الوطني لعلاقات العمل بسبب المراقبة غير القانونية أو الاستجواب أو تعليق العمال.
في وقت سابق من هذا الأسبوع ، استفسر جيبرو على تويتر عما إذا كان أي شخص يعمل على تنظيم لحماية باحثي الذكاء الاصطناعي الأخلاقي ، على غرار حماية المبلغين عن المخالفات. “مع مقدار الرقابة والتخويف الذي يستمر تجاه الأشخاص في مجموعات محددة ، كيف يثق أي شخص في أي بحث حقيقي في هذا المجال يمكن أن يتم؟” كتبت على تويتر.
هل هناك أي شخص يعمل على تنظيم حماية باحثي الذكاء الاصطناعي الأخلاقي ، على غرار حماية المبلغين عن المخالفات؟ لأنه مع مقدار الرقابة والتخويف الذي يستمر تجاه الأشخاص في مجموعات محددة ، كيف يثق أي شخص في أي بحث حقيقي في هذا المجال يمكن أن يتم؟
– تيمنيت جيبرو (timnitGebru) 1 ديسمبر 2020
صوت نادر
كان Gebru صوتًا نادرًا للنقد العام من داخل الشركة. في أغسطس ، قال جيبرو لـ Bloomberg News إن موظفي Black Google الذين يتحدثون علانية يتعرضون للانتقاد حتى عندما تعتبرهم الشركة أمثلة على التزامها بالتنوع. وروت كيف حاول زملاء العمل والمديرون ضبط لهجتها ، واختلاق الأعذار للمضايقة أو السلوك العنصري ، أو تجاهل مخاوفها.
عندما كانت Google تفكر في جعل جيبرو تدير موظفًا آخر ، قالت في مقابلة في أغسطس / آب ، إن صراحتها بشأن قضايا التنوع كانت ضدها ، وأثيرت مخاوف بشأن ما إذا كانت تستطيع إدارة الآخرين إذا كانت غير سعيدة. قالت في ذلك الوقت: “لا يعرف الناس مدى المشكلات الموجودة لأنه لا يمكنك التحدث عنها ، وفي اللحظة التي تفعل فيها ذلك ، أنت المشكلة”.
– بمساعدة هيلين فوكيه وجيريت دي فينك.
© 2020 بلومبرج إل بي
iPhone 12 Pro Series مذهل ، لكن لماذا هو مكلف للغاية في الهند؟ لقد ناقشنا هذا الأمر على Orbital ، البودكاست التكنولوجي الأسبوعي الخاص بنا ، والذي يمكنك الاشتراك فيه عبر Apple Podcasts أو Google Podcasts أو RSS أو تنزيل الحلقة أو الضغط على زر التشغيل أدناه.