يمتلك الذكاء الاصطناعي قدرة متزايدة على خلق محتوى مزيف يصعب تمييزه عن الحقيقة، مما يهدد الثقة بالإعلام والسياسة والمجتمع، وعلى رغم أنه ليس شريراً بطبيعته، فإنه يعكس التحيزات البشرية ويفاقمها، وإذا كان هدفه تحقيق الكفاءة المطلقة فقد يصبح غير مبال بمصير البشر، تماماً كما لا يكترث الإنسان أحياناً بتدمير الطبيعة أثناء تحقيق مصالحه.

أسوأ السيناريوهات الكابوسية التي قد يكتبها لنا الذكاء الاصطناعي قد تكون عبر أحد أفرعه، أي "الذكاء الفائق" (Superintelligence)، الذي في حال خرج عن السيطرة عندما يصبح الذكاء الاصطناعي أذكى من البشر في كل المجالات، فقد يقرر أن البشر "عائق" في طريق تحقيق أهدافه، فيبدأ بإقصائنا بطرق مختلفة، بعضها بدأنا نتوقعه في سيناريوهات أفلام الخيال العلمي الهوليوودية، وبعضها الآخر لن نتمكن من توقعه من اليوم، لأن الذكاء الاصطناعي يتطور ويطور نفسه بصورة سريعة جداً، وليس من الواضح ما سيؤول إليه من منظور معرفتنا الحالية به.

ولكن لو أطلقنا للذكاء البشري حق التخيل، فيمكننا توقع ظهور ما يسمى الروبوتات القاتلة في حال منحنا الذكاء الاصطناعي صلاحيات قتل بناءً على قرارات مستقلة يتخذها بنفسه. وفي الواقع، لم يعد هذا الأمر مجرد خيال، فقد وقعت خلال الحرب الإسرائيلية على غزة مجازر في حق مسعفين أمميين بسبب قرارات بالقتل اتخذتها طائرات مسيرة مبرمجة لقتل أي شخص "مشبوه" بناءً على بيانات مزودة بها، ولكن الفاصل بين دقة هذه البيانات وعدم دقتها قد يكون رفيعاً جداً.

بات الجميع، بدءاً بمن هم في أعلى مستويات المسؤولية ووصولاً إلى أي باحث عادي، يعرف أن الذكاء الاصطناعي يتطور بسرعة تفوق قدرة البشر على مواكبته، لذا يكبر خوف فئة كبيرة من الناس مع اتساع هذا التطور من دون وضوح القدرة على ضبطه أو وضع حدود مفهومة لهذا التطور. لقد بات الخوف مرتبطاً بأن تصبح الأنظمة الذكية معقدة إلى درجة لا يمكن للبشر التحكم بها أو توقع تصرفاتها، مما قد يؤدي إلى قرارات كارثية أو حتى تمرد تقني على مستوى معين.

 

الذكاء الاصطناعي وقرار الحرب المستقل

بعض العاملين في هذا المجال، مثل نيك بوستروم وإيلون ماسك، يحذرون من سيناريو يتمكن فيه الذكاء الاصطناعي من تجاوز الذكاء البشري، فيصبح غير مقيد بأية قوانين، مما يتسبب بكوارث غير متوقعة، قد تصل إلى حد تهديد وجود البشرية نفسها. على سبيل المثال، فإن "الذكاء الفائق"، وهو نوع من الذكاء الاصطناعي الذي يتجاوز الذكاء البشري في جميع المجالات، بما في ذلك الإبداع وحل المشكلات والتخطيط الإستراتيجي واتخاذ القرارات، لم يعد مجرد ذكاء اصطناعي متقدم مثل ChatGPT بل بات ذكاءً يمكنه التفكير والتطور بنفسه وتحسين قدراته من دون تدخل بشري.

أما في مجالات التسلح العسكري والروبوتات القاتلة، فإن الدول الكبرى تعمل على تطوير أنظمة ذكاء اصطناعي عسكرية مثل الطائرات المسيرة المستقلة والأسلحة الذكية، مما قد يؤدي إلى سباق تسلح جديد يمكن أن يخرج عن السيطرة. ومن هذه الأسلحة ما بات موجوداً بالفعل، مثل الروبوتات القتالية المستقلة (Killer Robots) والطائرات المسيرة القادرة على تنفيذ ضربات من دون تحكم بشري مباشر، بل يترك لها حق اتخاذ القرار بناءً على مجموعة معلومات، فإذا تطابقت مع الهدف تتخذ الأمر بنفسها لإطلاق النار عليه.

من هذا النوع من الطائرات المسيرة، طائرة "بيرقدار TB2" التركية، التي استخدمت في النزاعات في سوريا وليبيا وأوكرانيا، وطائرة "MQ-9 Reaper" الأميركية، التي يمكنها تنفيذ عمليات قتل مستهدف من دون تدخل مباشر من الطيار. والأمر نفسه بالنسبة إلى طائرة "Harop" الإسرائيلية، وهي طائرة انتحارية مزودة بذكاء اصطناعي يحدد لها الأهداف، فتتحول إلى صاروخ موجه ينفجر في الهدف من دون أن يعطيها العسكري البشري الذي يسيرها الأمر بذلك.

أما بخصوص الروبوتات القتالية البرية فمن أنواعها التي باتت موجودة في الواقع هناك روبوتات نصف مستقلة حتى اليوم، مثل "UGV Uran-9" الروسي، وهو مدرعة غير مأهولة تحمل رشاشات وقاذفات صواريخ، وروبوت "MAARS" الأميركي المزود بأسلحة أوتوماتيكية. وهذه روبوتات لا تزال تحتاج إلى تدخل بشري في جزء من عملها، ولكن الروبوتات المستقبلية القاتلة بصورة مستقلة بالكامل، وتسمى الإنجليزية (Fully Autonomous Killer Robots)، هي عبارة عن جيوش روبوتية تستطيع شن هجمات بناءً على تحليل ساحة المعركة من دون انتظار أوامر من البشر. منها مثلاً الجنود السايبورغ (Cyborg Soldiers)، وقد تكون على شكل حشرات إلكترونية صغيرة الحجم يمكنها اختراق حدود العدو وإلحاق أقصى الأضرار به من دون القدرة على مجابهتها. وهناك نوع من الجنود الشبيهين بـ"تيرمينايتور"، بطل الفيلم الهوليوودي الشهير الذي لعب دور بطولته، آرنولد شوارزينيغر، وهو نصف بشري ونصف آلي، معزز بتكنولوجيا أطراف إلكترونية أو شرائح دماغية أو بعيون إلكترونية تمكنهم من الرؤية الليلية الفائقة، أو أجهزة عصبية تعزز سرعة رد الفعل، تجعلهم أقوى وأسرع وأكثر دقة في المعارك. وتُطور حالياً برامج ذكاء اصطناعي قادرة على وضع خطط حربية تتوقع تحركات العدو وتخطط لحرب شاملة وتحدد موعد الهجوم أو التراجع من دون تدخل بشري.

 

البطالة والكفاءة المطلقة والعقبة البشرية

لا تتلخص أخطار الذكاء الاصطناعي في اتخاذ قرار الحرب أو القتل بناءً على معلومات زُود بها ومن دون تدخل بشري، بل تتعداها إلى خسارة عشرات الملايين من البشر وظائفهم، التي بات بإمكانه تأديتها بسهولة وسرعة وبجدارة أكبر، مما سيؤدي إلى ارتفاع معدلات البطالة وانهيار اقتصادي محتمل لفئات واسعة من البشر، مما قد تكون له نتائج واسعة على مستوى العالم لم تُحدد بعد، ولكن بحسب توقعات الذكاء الاصطناعي نفسه، لا بد من أنها ستؤدي إلى ثورات اجتماعية في أنحاء مختلفة من العالم، وإلى انهيار نظم سياسية وصعود أخرى، وربما إلى فترات طويلة من الإخلال بالأمن والتسلح الذاتي وسيطرة العصابات، وغيرها من المشاهد التي تشبه ما تصوره الأفلام السينمائية عن عالم ما بعد التطور التقني والاتصالات والبرمجيات والذكاء الاصطناعي.

هذا التطور الذي لا بد من أنه سيخرج من يد البشر، وأصحاب هذه المخاوف يتذكرون الكمبيوتر الأول البدائي، الذي خسر مباراة الشطرنج الأولى مع اللاعب العالمي الشهير كاسباروف، ثم من بعد تلك المباراة لم يتمكن أي بشري من هزيمته، لأنه تمكن بنفسه من تطوير قدرته على توقع كل النقلات الممكنة التي قد يقوم بها اللاعب الذي يواجهه. فالكمبيوتر يتمكن، من خلال خوارزمياته، من صنع معلومة "أ" ومعلومة "ب"، ثم استنتاج معلومة "ج"، وهكذا دواليك إلى ما لا نهاية، والذكاء الاصطناعي الحديث يقوم بالأمر نفسه، ولكن بطريقة أسرع وأكثر احترافية وجدارة، وما هي إلا مسألة وقت حتى يصبح تطوره كاملاً وكابوسياً، بحسب المتطرفين في تشاؤمهم.

وهناك أمور أخرى بدأت بالظهور وليست على لائحة الانتظار تدعم وجهة نظر المتشائمين، ومنها قدرة الذكاء الاصطناعي على إنشاء صور وفيديوهات وأخبار مزيفة لا يمكن تمييزها عن الحقيقة، مما يسهل عمليات الخداع والتلاعب بالرأي العام، ويدمر الثقة بالإعلام والسياسة والمجتمع.

ففي النهاية لا يملك الذكاء الاصطناعي "أخلاقاً" كما نفهمها نحن البشر، ولا نعرف إذا ما كان سيطور أخلاقاً بالمعنى البشري، وفي حال طورها فإنه سيكون موضع تساؤل أيضاً، كما هي القواعد الأخلاقية لدى البشر حالياً، التي لا تزال موضع خلاف بالمعنى القانوني والعدلي، مما قد يؤدي إلى قرارات جائرة.

وفي الواقع، فقد بدأ الانحياز الأخلاقي الذي يمارسه الذكاء الاصطناعي منذ اليوم، فعلى سبيل المثال إذا دُربت خوارزميات التوظيف لدى برنامج الذكاء الاصطناعي ببيانات من شركات كانت تاريخياً تفضل الرجال على النساء، فقد يستمر الذكاء الاصطناعي في استبعاد النساء من الوظائف، حتى لو لم يكن ذلك مقصوداً، والأمر نفسه ينطبق على التمييز العرقي في الأنظمة الأمنية عند التعرف على أصحاب البشرة الداكنة مقارنة بالبشرة الفاتحة، لأن البيانات التي استُخدمت في التدريب كانت غير متوازنة مما أدى، خلال التجارب وأحياناً في الواقع، إلى وقوع أخطاء واعتقالات خاطئة.

 

فالذكاء الاصطناعي ليس شريرا أو خيراً بطبيعته، لكنه يعكس البرامج التي زُود بها، فهو يطور التحيزات البشرية كما هي، لكنه يضخمها ويفاقمها، لهذا قد يصبح ببساطة غير مبال بمصير البشر، خصوصاً إذا كان هدفه تحقيق أقصى قدر من الكفاءة، حينها قد يرى البشر عقبة يجب تجاوزها، تماماً كما يفعل البشر أنفسهم حين لا يهتمون بالبيئة الحيوانية والنباتية عند شق طريق سريع داخل غابة.

 وكالات

 

 

س ع


اضف تعليق