أعلنت شركة جوجل عن عائلتها الجديدة من نماذج الذكاء الاصطناعي “بيليجيما 2″، والتي تميزت بقدرتها على تحليل الصور، وإنشاء تسميات توضيحية، والإجابة على أسئلة حول الأشخاص الموجودين في الصور، ومن بين ميزاتها المثيرة للجدل، قدرتها على محاولة تحديد مشاعر الأشخاص بناءً على تعابير وجوههم، كما أنها قادرة على تجاوز التعرف البسيط على الأشياء لتوفير سرد شامل للمشاهد ووصف الأفعال والمشاعر، لكن هذه الميزة أثارت جدلاً واسعاً في الأوساط الأكاديمية والتنظيمية.
بيليجيما 2.. قلق من الذكاء الاصطناعي
وأبدت ساندرا واتشر، أستاذة أخلاقيات الذكاء الاصطناعي في معهد أكسفورد للإنترنت، قلقها قائلة: “من غير المنطقي الافتراض بأننا نستطيع قراءة مشاعر الناس بدقة، وإن مثل هذه التقنيات، رغم تطورها الظاهري، تعتمد على افتراضات غير علمية.”
تقنية تحديد المشاعر
وتعتمد تقنية تحديد المشاعر على أبحاث عالم النفس بول إكمان، الذي افترض وجود ست مشاعر أساسية تتشاركها البشرية (الغضب، الدهشة، الاشمئزاز، السعادة، الخوف، والحزن)، ومع ذلك، أظهرت أبحاث لاحقة وجود تباينات كبيرة في كيفية تعبير الأفراد عن مشاعرهم، متأثرة بعوامل ثقافية وشخصية.
بينما مايك كوك، الباحث في جامعة كوين ماري بلندن، أشار إلى محدودية هذه التقنيات بقوله: “المشاعر معقدة للغاية ولا يمكن قراءتها بدقة من ملامح الوجه وحدها، وما نحاول القيام به باستخدام الذكاء الاصطناعي“بيليجيما 2″ هو تفسير معقد للغاية ولا يمكن تعميمه.”
وأظهرت دراسات عديدة أن أنظمة كشف المشاعر غالبًا ما تكون غير دقيقة ومتحيزة، إذ تميل إلى تقديم نتائج سلبية عند تحليل وجوه الأشخاص من أعراق معينة. وفي دراسة أجراها معهد “ماساتشوستس للتكنولوجيا” عام 2020، تبين أن نماذج تحليل الوجوه أظهرت تحيزًا لصالح وجوه ذات تعابير معينة، مثل الابتسامة، وأظهرت تحيزًا سلبيًا تجاه وجوه الأشخاص السود مقارنة بالبيض.
وأكدت جوجل أنها أجرت اختبارات دقيقة لتقييم التحيزات الأخلاقية في نماذج “بيليجيما 2″، وذكرت الشركة أن النموذج أظهر مستويات منخفضة من الأخطاء مقارنة بالمعايير المهنية، ومع ذلك، لم تكشف الشركة عن قائمة المعايير المستخدمة أو تفاصيل الاختبارات، مما أثار شكوكاً بين الخبراء.