كشف تقرير حديث صادر عن مؤسسة Future of Life Institute غير الربحية، ومقرها وادي السيليكون، أن شركات التكنولوجيا العاملة في مجال الذكاء الاصطناعي لا تبذل الجهود الكافية لحماية البشرية من المخاطر المتصاعدة المرتبطة بهذه التقنيات.
التقرير، الذي حمل عنوان "مؤشر سلامة الذكاء الاصطناعي"، قدّم تقييماً لأداء أبرز الشركات في التعامل مع المخاطر الحالية والمستقبلية للذكاء الاصطناعي، في ظل توسع حضوره وتأثيره في حياة الانسان.
ويحذّر التقرير من أن تطور أنظمة الذكاء الاصطناعي، مقروناً بغياب التنظيمات الصارمة والحوافز التي تشجع على تبنّي معايير السلامة، يدفع الشركات إلى التركيز على المنافسة والتسارع في الابتكار، على حساب إدارة المخاطر.
وتشمل هذه المخاطر إساءة الاستخدام، والهجمات السيبرانية، وتطوير أسلحة متقدمة، إضافة إلى تهديدات محتملة لاستقرار الأنظمة السياسية.
وبحسب نتائج المؤشر، لم تتجاوز أعلى درجة حققتها أي من الشركات مستوى C+، وهي الدرجة التي نالتها شركتا OpenAI و Anthropic، فيما حصلت Google DeepMind على درجة C.
أما Meta و xAI إلى جانب الشركات الصينية Z.ai و DeepSeek، فقد نالت تقييماً بدرجة D، في حين جاءت Alibaba Cloud في ذيل القائمة بدرجة D-.
واستند التقرير إلى تقييم 35 مؤشراً موزعة على ست فئات رئيسية، منها: السلامة الوجودية، تقدير المخاطر، تبادل المعلومات، وإجراءات الحماية. واعتمدت المؤسسة على بيانات علنية واستبيانات موجهة للشركات، جرى تحليلها من قبل ثمانية خبراء مستقلين.
وأظهرت النتائج، أن جميع الشركات جاءت دون المستوى المطلوب في مجال السلامة الوجودية، مؤكداً أنه رغم الطموحات المتسارعة نحو تطوير الذكاء الاصطناعي العام، لم تقدّم أي جهة خطة واضحة وموثوقة لمنع الاستخدام الكارثي أو فقدان السيطرة على الأنظمة المتقدمة.
وفي أول ردود الفعل، أكدت شركتا OpenAI و Google DeepMind التزامهما بجهود السلامة وتعزيز الأبحاث الخاصة بها، بينما أشار التقرير إلى غياب التزامات مشابهة لدى شركات أخرى.
وحذّر رئيس المؤسسة، ماكس تيغمارك، من أن استمرار الوضع الحالي من دون تشريعات واضحة ومعايير إلزامية قد يقود إلى مخاطر كبيرة، داعياً الحكومات إلى الإسراع في تبني أطر تنظيمية شاملة. ورغم إقرار بعض التشريعات مثل قانون SB 53 في ولاية كاليفورنيا، يرى التقرير أن التقدم المحقق ما يزال غير كافٍ لضمان سلامة البشرية أمام موجة التطور السريع للذكاء الاصطناعي.
م.ال



اضف تعليق