ميزة ثورية وغريبة من غوغل قراءة المشاعر.. ما أهميتها؟
أعلنت شركة التكنولوجيا العملاقة "غوغل" عن تطوير ميزة ثورية وغريبة نوعًا ما لمجموعة نماذج الذكاء الاصطناعي الجديدة لديها PaliGemma 2، تسمح لها بالقدرة على "قراءة المشاعر".
صورة للتوضيح فقط - تصوير: Dragos Asaftei-shutterstock
المجموعة الجديدة تتميز بقدرتها على تحليل الصور، مما يمكّن الذكاء الاصطناعي من إنشاء تعليقات توضيحية، والإجابة على أسئلة حول الأشخاص الذين يراهم في الصور.
ميزة ثورية وغريبة من غوغل
وعبر مدونتها الرسمية، كتبت "غوغل" في منشور، أن نماذج PaliGemma 2 تولد تسميات توضيحية مفصلة وذات صلة بالسياق للصور، وتتجاوز التعرف البسيط على الكائنات والأشياء لوصف الأفعال والمشاعر والسرد العام للمشهد.
وأشارت الشركة، إلى أنها أجرت اختبارات واسعة النطاق لتقييم التحيزات الديموغرافية في PaliGemma 2، وسجلت مستويات منخفضة من "الكراهية والألفاظ النابية" مقارنة بمعايير الصناعة.
القدرة على قراءة المشاعر
وبحسب الشركة، فإن تقنية التعرف على المشاعر لا تعمل بشكل تلقائي وتحتاج لضبط، وبالرغم من ذلك، فقد أبدى الخبراء قلقهم من احتمال وجود تقنية لكشف المشاعر متاحة للعلن. لكن "غوغل" لم تقدم القائمة الكاملة للمعايير التي استخدمتها، ولم تشر إلى أنواع الاختبارات التي تم إجراؤها.
وكان FairFace هو المعيار الوحيد الذي كشفت عنه الشركة، وهو عبارة عن مجموعة من عشرات الآلاف من صور الأشخاص، ورغم قول "غوغل" إن PaliGemma 2 سجل نتائج جيدة على FairFace، لكن انتقد بعض الباحثين ذلك المعيار باعتباره مقياساً متحيزاً، مشيرين، إلى أنه لا يمثل سوى عدد قليل من المجموعات العرقية.
قلق كبير من الميزة الجديدة
وبالتزامن مع إعلان "غوغل"، عن هذه الميزة الغريبة، فقد أعرب متخصصون في الذكاء الاصطناعي عن قلقهم من مخاطر تلك الميزة، حيث قالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أوكسفورد للإنترنت، في تصريحات لموقع Tech crunch: "إن هذا أمر مقلق للغاية بالنسبة لي، أجد أنه من الصعب افتراض أننا نستطيع قراءة مشاعر الناس".
فيما أوضح مايك كوك، زميل باحث في جامعة كينغز كوليدج لندن المتخصصة في الذكاء الاصطناعي، أن اكتشاف المشاعر غير ممكن في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة.
ولفت كوك، إلى أن أنظمة الكشف عن المشاعر أثارت حفيظة الجهات التنظيمية في الخارج، التي سعت إلى الحد من استخدام التكنولوجيا في السياقات عالية المخاطر، إذ يحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأصحاب العمل نشر أجهزة كشف المشاعر، باستثناء وكالات إنفاذ القانون. وعليه، فإن أكبر مخاوف النماذج المفتوحة تتمثل في إساءة استخدامها، مما قد يؤدي إلى ضرر حقيقي وكبير.
رد غوغل على مخاطر هذه الميزة
وسُئل المتحدث باسم "غوغل" عن مخاطر إطلاق PaliGemma 2 بشكل عام، وقال لموقع "تيك كرانش" التقني: "إن الشركة تقف وراء اختباراتها الأضرار التمثيلية فيما يتعلق بالإجابة عن الأسئلة البصرية والتوصيف".
وأضاف: "لقد أجرينا تقييمات دقيقة لنماذج تحديد المشاعر فيما يتعلق بالأخلاق والسلامة، بما في ذلك سلامة الأطفال وسلامة المحتوى".
من هنا وهناك
-
آبل تفاجئ المستخدمين بتغيير طفيف في تصميم آيفون 17
-
كيف تكتشف أن هاتفك يتنصت على مكالماتك؟
-
غوغل تحدث تطبيق نقل البيانات من آيفون إلى أندرويد.. إليكم التفاصيل
-
‘غوغل‘ تخطط لتوحيد أنظمة التشغيل
-
‘ بلو سكاي ‘.. كل ما تريد معرفته عن المنصة البديلة لـ ‘ إكس ‘
-
أبل تكشف الستار عن جهاز iPad mini 7 الجديد المدعوم بمعالج قوي ومميزات أخرى
-
شركة جوجل تحارب البريد العشوائي بميزة جديدة للحماية من الاختراق
-
مزايا تحديث iOS 18.1 تتضمن حلولاً وتحسينات مهمة
-
6 كلمات لا تكتبها في محرك البحث.. تعرفوا على السبب
-
جوجل تحذف سجل المواقع في هذا الموعد
أرسل خبرا