تصاعد العنف ضد الذكاء الاصطناعي في المجتمع
بعد هجوم على منزل سام ألتمان، تزايدت المخاوف من العنف ضد مسؤولي الذكاء الاصطناعي. المقال يستعرض التحذيرات والمخاوف من تأثيرات الذكاء الاصطناعي وكيف تحوّلت المعارضة إلى أفعال خطرة. اكتشف المزيد على خَبَرَيْن.

-سارعت مجموعاتٌ بارزة في مجال سلامة الذكاء الاصطناعي إلى التبرّؤ من الحادثة، بعد أن هاجم شابٌّ يبلغ من العمر 20 عاماً منزل الرئيس التنفيذي لـ OpenAI سام ألتمان الأسبوع الماضي، في ما وصفه المحقّقون بأنّه مخطَّطٌ لإيذاء مسؤولين تنفيذيين في قطاع الذكاء الاصطناعي. غير أنّ أصواتاً في بعض أركان الإنترنت رحّبت بالهجوم.
وشبّه أحد مستخدمي X المهاجمَ بـ Luigi Mangione، المتّهم بقتل الرئيس التنفيذي لشركة UnitedHealthcare برايان Thompson في جريمةٍ ذات دوافع سياسية، واصفاً الرجلَين بـ«الأبطال». وذهب مستخدمون آخرون على المنصّة ذاتها إلى أنّ الهجوم كان «مبرَّراً».
وكتب أحد المستخدمين في مجموعةٍ على Reddit معادية للذكاء الاصطناعي: «إذا سُمح لهذا الدفع المتواصل نحو الذكاء الاصطناعي والتسليع الكامل لمعنى الإنسانية بالاستمرار، فستصبح مثل هذه الحوادث أكثر شيوعاً بكثير».
شاهد ايضاً: FanDuel تدخل سوق التنبؤات الرياضية المثيرة للجدل
لقد تنامت المخاوف من أن يتسبّب الذكاء الاصطناعي في سرقة الوظائف وزعزعة الاقتصاد والإضرار بالبيئة، بل والتهديد الوجودي للبشرية، مع التقدّم المتسارع للتكنولوجيا ،حتى إنّ مسؤولين تنفيذيين في قطاع التقنية أطلقوا تحذيراتٍ حادّة بأنفسهم. لكنّ الهجمات الأخيرة تمثّل الجناح المتطرّف في حركة معارضة الذكاء الاصطناعي، التي انتقلت من التعليقات المجهولة على الإنترنت إلى أعمالٍ خطرة في الواقع، ممّا أشعل نقاشاً في Silicon Valley حول كيفية التعامل مع هذه الظاهرة.
وقبل ثلاثة أيام من الهجوم على منزل Altman، أُفيد بإطلاق نار على منزل عضو مجلس مدينة Indianapolis رون غيبسون في منتصف الليل، وتُرك على بابه ورقةٌ كُتب عليها «لا لمراكز البيانات»، وذلك إثر الموافقة على إنشاء مركز بياناتٍ في دائرته الانتخابية.
وفي السنوات الأخيرة، رُصدت تقاريرٌ عن أعمال تخريب وهجمات على سيارات الأجرة ذاتية القيادة وروبوتات التوصيل، التي يراها البعض إرهاصاتٍ لمستقبلٍ تقني لم يختره الجميع.
يقول دوغ مكدام ، أستاذ علم الاجتماع في جامعة Stanford المتخصّص في دراسة الحركات السياسية والاجتماعية: «الذكاء الاصطناعي قضيةٌ ضخمة ومخيفة، لا يفهمها الناس بالقدر الكافي وتسود حولها مخاوف منتشرة بشكل غير محدّد»، مضيفاً أنّه «ليس غريباً» أن تُفرز مثل هذه الحركات «جناحاً متطرّفاً».
وفي بيانٍ أصدرته في أعقاب الهجوم، قالت OpenAI: «لضمان توظيف الذكاء الاصطناعي توظيفاً صحيحاً، نحتاج إلى العمل عبر الآليات الديمقراطية، والنقاش الجادّ للأفكار ركيزةٌ أساسية في أيّ ديمقراطية سليمة. بيد أنّه لا مكان في ديمقراطيتنا للعنف ضدّ أيّ شخص، بصرف النظر عن المختبر الذي يعمل فيه أو الجانب الذي ينتمي إليه في هذا النقاش. ونحن ممتنّون لسرعة استجابة جهات إنفاذ القانون وأنّه لم يُصَب أحد».
«تطبيق أسلوب Luigi على المدراء التنفيذيين في التقنية»
Daniel Moreno-Gama، الموقوف حالياً دون كفالة، قضى وقتاً قبيل الهجوم في فضاءاتٍ إلكترونية مخصّصة لمناقشة مخاطر الذكاء الاصطناعي. وفي محادثةٍ إلكترونية مع مضيفَي بودكاست الذكاء الاصطناعي «The Last Invention»، تحدّث Moreno-Gama عن «تطبيق أسلوب Luigi على المدراء التنفيذيين في التقنية»، في إشارةٍ إلى المتّهم بقتل الرئيس التنفيذي لـ UnitedHealthcare.
كذلك نشر Moreno-Gama في خادم Discord الخاصّ بـ PauseAI وهي منظّمةٌ تدعو إلى تعليق تطوير الذكاء الاصطناعي المتقدّم ريثما تلحق تدابير السلامة بالتطوّر في الأسابيع التي سبقت الهجوم، وهو ما أكّدته المنظّمة. وقد تبرّأت PauseAI من الهجوم، مؤكّدةً أنّ Moreno-Gama لم يكن عضواً رسمياً فيها، وأنّ خادم Discord مفتوحٌ للانضمام لأيّ شخص.
وقال Maxime Fournes، الرئيس التنفيذي لـ PauseAI: «نحن موجودون لنمنح الناس مساراً سلمياً وديمقراطياً للتعبير عن مخاوفهم تجاه الذكاء الاصطناعي، لذا فإنّ هذا الهجوم يتناقض مع كلّ ما نمثّله».
شاهد ايضاً: ميتا متهمة بتمكين استغلال الأطفال جنسياً. الآن يجب على هيئة المحلفين في نيو مكسيكو أن تقرر
وكشفت مجموعة Stop AI المنفصلة، التي تسعى هي الأخرى إلى وقف تطوير الذكاء الاصطناعي المتقدّم، يوم الثلاثاء أنّ Moreno-Gama سأل في منتداها الإلكتروني في وقتٍ سابق من هذا العام: «هل سيُحظر عليّ الحديث عن العنف؟» وتقول المجموعة إنّه توقّف عن النشر بعد أن أُبلغ بأنّ الجواب نعم.
وقالت Stop AI في تغريدةٍ على X: «التزمت Stop AI دائماً بالنشاط السلمي. والقيادة الحالية للمجموعة ملتزمةٌ التزاماً عميقاً بعدم العنف في الأفعال والتصريحات على حدٍّ سواء»، مضيفةً أنّ مؤسّسَيها المشاركَين أُقصيا من المجموعة إثر إدلائهما بـ«تصريحاتٍ استفزازية تتعلّق بالعنف» العام الماضي.
وبحسب شكوى جنائية رفعها مكتب التحقيقات الفيدرالي (FBI)، كان Moreno-Gama يحمل خلال الهجوم وثيقةً ناقش فيها «المخاطر المزعومة للذكاء الاصطناعي على البشرية»، وكتب عن قتل Altman، وأدرج «أسماء وعناوين أعضاء مجالس إدارة وهيئات تنفيذية ومستثمرين في شركات الذكاء الاصطناعي».
وقالت محامية Moreno-Gama، المدافعة العامة في سان فرانسيسكو Diamond Ward، أمام المحكمة هذا الأسبوع إنّ موكّلها كان يمرّ بأزمةٍ في صحّته النفسية إبّان الحادثة، واصفةً التهم الموجّهة إليه بالمبالغة، إذ قالت إنّ القضية لا تعدو كونها «جريمة ممتلكات في أحسن الأحوال»، وفق ما نقلته وكالة Associated Press. وأفادت الوكالة ذاتها بأنّ والدَي Moreno-Gama أصدرا بياناً أكّدا فيه أنّ ابنهما بدأ مؤخّراً يعاني من مشكلاتٍ في صحّته النفسية، وأنّه لم يؤذِ أحداً قطّ، معربَين عن قلقهما البالغ على سلامته.
حركةٌ تتشقّق من الداخل
كان بعض العاملين في قطاع الذكاء الاصطناعي يعيشون حالةً من الخوف أصلاً؛ فـ OpenAI على سبيل المثال تحثّ موظّفيها منذ زمن على خلع شاراتهم التعريفية قبل مغادرة المكتب.
وأعرب Fournes عن قلقه من احتمال وقوع مزيدٍ من الانفجارات العنيفة، محذّراً من أنّ مثل هذه الهجمات قد تُلقي بظلالٍ سلبية على حركة سلامة الذكاء الاصطناعي، التي تتّسم بالتنوّع والتعقيد لكنّها في معظمها سلمية.
وقال: «ردّنا على هذا سيكون مضاعفة ما اعتدنا عليه دائماً المناصرة السلمية والمشروعة. أعتقد أنّه من المهمّ جداً أن تظلّ حركاتٌ كحركتنا، السلمية كلياً، على اطّلاعٍ دائم بما يجري، لأنّ ثمّة حركاتٍ أكثر ظلاماً قد تبدأ في الصعود».
ويُشير التاريخ إلى أنّ الانفجارات المتطرّفة قادرةٌ على منح مصداقيةً أكبر للأجنحة المعتدلة في الحركات الاجتماعية، وفق ما يقوله أكدام . ويضيف أنّ شركات الذكاء الاصطناعي «ستضطرّ حقاً إلى التفكير الجادّ في كيفية ردّها»، مؤكّداً أنّ «الحركة ككلٍّ تكتسب ظهوراً ونفوذاً، حتى في ظلّ انتقاد هذا الجناح المتطرّف».
وهذا النقاش بات يتشكّل بالفعل. فقد قال Chris Lehane، رئيس السياسات العالمية في OpenAI، إنّ بعض الانتقادات الموجّهة للذكاء الاصطناعي «ليست بالضرورة مسؤولة»، في مقابلةٍ أُجريت معه يوم الثلاثاء مع San Francisco Standard، مضيفاً: «حين تطرح بعض هذه الأفكار والتصوّرات، فإنّها تترتّب عليها عواقب»، ومشيراً إلى أنّ على الشركة أن توضّح أنّ الذكاء الاصطناعي «سيكون مفيداً جداً لهم، لعائلاتهم وللمجتمع بأسره».
لكنّ زميله Jason Wolfe، العضو في الكادر التقني لـ OpenAI العامل في مجال المحاذاة (Alignment) وهو حقلٌ يُعنى بجعل نماذج الذكاء الاصطناعي تعكس احتياجات الإنسان وقيمه خالفه الرأي علناً في تغريدةٍ على X يوم الخميس.
وقال Wolfe: «أعتقد أنّ مهمّتنا يجب أن تكون كسب الثقة بجعل الفوائد حقيقيةً ملموسة، والصدق في الحديث عن المخاطر وحالات الغموض، ومشاركة ما نتعلّمه، وقياس التأثيرات الفعلية في العالم الحقيقي، ودعم الرقابة العامة والمرونة المؤسّسية. وبينما أتّفق بالطبع على أنّ العنف الأخير فظيعٌ وغير مبرَّر وربّما شجّع عليه عددٌ قليل من الفاعلين السيّئين، أعتقد أنّه ضارٌّ بالخطاب العام أن نضع كلّ منتقدي الذكاء الاصطناعي في خانة "المتشائمين" ونوحي بأنّه من غير اللائق أن يُعبّروا عن مخاوفهم».
شاهد ايضاً: تتخلى أنثروبيك عن وعدها الأساسي بالسلامة وسط صراع خط أحمر مع البنتاغون بشأن الذكاء الاصطناعي
وحين تم التواصل مع OpenAI للتعليق على هذه القصة، أشارت الشركة إلى تغريدةٍ لاحقة نشرها Wolfe، قال فيها إنّه راجع تصريحات Lehane الكاملة للـ Standard فتغيّرت قراءته للتعليقات، مؤكّداً أنّه يرى أنّ مسؤول السياسات كان واضحاً في أنّ «تواصلنا حول فوائد الذكاء الاصطناعي يجب أن يكون صادقاً وموضوعياً»، وأنّ ثمّة «أسباباً موضوعيةً ومشروعة لطرح التساؤلات».
أخبار ذات صلة

تيم كوك يتنحّى عن منصب الرئيس التنفيذي لـ Apple

الأعصاب المتعلقة بالذكاء الاصطناعي تتوتر. أنثروبيك تواصل مضاعفة جهودها
