هل يستطيع الذكاء الاصطناعي أن يصنع أسلحة بيولوجية قاتلة؟

{title}
أخبار دقيقة -

في صيف عام 1990، شهدت العاصمة اليابانية طوكيو حادثة غريبة، إذ قامت شاحنات برش سائل أصفر في مواقع حساسة للغاية، شملت قواعد عسكرية أمريكية، والمطار الدولي، وحتى القصر الإمبراطوري، وكانت هذه الهجمات هي البداية لمخططات جماعة تُسمى (أوم شينريكيو) الطائفية، التي كانت تسعى إلى إقامة نظام عالمي جديد قائم على معتقداتها الدينية، وكان الهجوم البيولوجي مجرد خطوة أولى في هذا المسار.

فبعد خمس سنوات من هذه الحاثة، نفذت الجماعة هجوم كيميائي مروع باستخدام غاز السارين في مترو طوكيو، وقد أسفر عن مقتل 13 شخصًا وإصابة الآلاف.

وكانت جماعة (أوم شينريكيو) تسعى إلى استخدام سلاح بيولوجي قاتل في هجماتها في عام 1990، كما تبين لاحقًا، إذ خططت لتسميم سائل الرش الأصفر بسم (البوتولينوم) Botulinum، وهو أحد أشد السموم البيولوجية فتكًا في العالم، ولكن جهودها باءت بالفشل آنذاك، ويعزى ذلك جزئيًا إلى نقص المعرفة العلمية لدى أعضاء الجماعة، فلم يتمكنوا من التفرقة بين البكتيريا المنتجة للسم والسم نفسه، وهو خطأ فادح أثر في فعالية الهجوم.

وقد أثارت هذه الأحداث التاريخية الكثير من التساؤلات الآن، ماذا كان سيحدث في العالم لو كانت جماعة (أوم شينريكيو) استخدمت أدوات الذكاء الاصطناعي المتطورة التي نستخدمها الآن، مثل ChatGPT، لربما تمكنت من تطوير أسلحتها البيولوجية بشكل أسرع وأكثر دقة!

كيف تضاعف نماذج الذكاء الاصطناعي تهديد الأسلحة البيولوجية؟

أطلقت شركة (OpenAI) خلال شهر سبتمبر الجاري، سلسلة نماذج (o1) الجديدة، التي تأتي في إصدارين هما: (o1-preview)، و(o1-mini). وتتميز هذه النماذج بقدرات غير مسبوقة بفضل اعتمادها على تقنية التعلم التعزيزي، التي تمكنها من التفكير، وحل مسائل الرياضيات المعقدة، والإجابة عن أسئلة البحث العلمي، ويُعدّ ذلك بمنزلة تطور حاسم في الجهود المبذولة لإنشاء ذكاء اصطناعي عام يفكر بطريقة أقرب إلى التفكير البشري.

وتؤدي قدرة هذه النماذج على ربط الأفكار بشكل متسلسل إلى تحسين أدائها بشكل كبير، ولكنها تفتح الباب أمام مخاطر جديدة، مثل تقديم نصائح غير قانونية أو اختيار الاستجابات النمطية أو الاستسلام لكسر الحماية المعروف.

وقد قالت الشركة في بطاقة نظام (o1)، وهي عبارة عن تقرير يعرض الإجراءات التي اتخذتها الشركة لتقييم المخاطر المحتملة قبل إطلاق النموذجين: "إن النماذج الجديدة تحمل (خطرًا متوسطًا) فيما يتعلق بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN)”. ويُعدّ هذا التصنيف وهو أعلى مستوى خطر منحته OpenAI لنماذجها حتى الآن، مما يؤكد خطورة القدرات الجديدة التي تقدمها.

وأوضحت الشركة أن النموذجين تمكنا من مساعدة خبراء في مجال الهندسة البيولوجية في تطوير خطط عملية لإعادة إنتاج عوامل بيولوجية ضارة، ويعني ذلك أن النموذج يمكن أن يوفر المعلومات الأساسية التي يحتاج إليها الخبراء لتنفيذ هجمات بيولوجية، بدءًا من تحديد العامل البيولوجي المستهدف وحتى اختيار أمثل الطرق لتسليمه. ومع أن تنفيذ هذه الخطط يتطلب خبرات عملية لا يمكن للنماذج الجديدة توفيرها، ولكن قدرتها على توليد مثل هذه الخطط تمثل تطورًا مقلقًا في مجال الأمن البيولوجي.

وقد أثار هذا التطور قلقًا واسعًا في المجتمع العلمي والأمني، وحذر خبراء الذكاء الاصطناعي من أن إمكانية استغلال أي جهات خبيثة لهذه النماذج لتنفيذ هجماتها، مما يشكل تهديدًا حقيقيًا للأمن العالمي.

وقال يوشوا بينجيو، أستاذ علوم الحاسوب في جامعة مونتريال، الذي يُعدّ أحد الآباء المؤسسين للذكاء الاصطناعي: "إذا تجاوزت نماذج (OpenAI) بالفعل مستوى الخطر المتوسط للأسلحة الكيميائية والبيولوجية والإشعاعية والنووية كما ورد في تقاريرها، فذلك يؤكد ضرورة وجود قوانين وتشريعات صارمة مثل قانون الذكاء الاصطناعي في كاليفورنيا (SB 1047)، لضبط هذا المجال وحماية المجتمع من المخاطر المحتملة”.

ويهدف مشروع القانون رقم (SB 1047) إلى إلزام أكبر مطوري الذكاء الاصطناعي بالقيام بما تعهدوا به مرارًا وتكرارًا، وهو إجراء اختبارات السلامة الأساسية على نماذج الذكاء الاصطناعي القوية للغاية واتخاذ إجراءات وقائية لمنع إساءة استخدامها أو خروجها عن السيطرة.

وشدد يوشوا بينجيو على أهمية مثل هذه القوانين في ظل التقدم السريع للذكاء الاصطناعي، محذرًا من أن عدم وجود قيود حماية قد يؤدي إلى استغلال هذه التكنولوجيا في أغراض ضارة.

دراسة مثيرة للقلق:

 كشف باحثون من معهد ماساتشوستس للتكنولوجيا في دراسة نشرتها مجلة (Science)، عن قدرة الذكاء الاصطناعي على تسهيل تطوير أسلحة بيولوجية. في هذه الدراسة، طلب الباحثون من مجموعة من الطلاب استخدام نماذج ذكاء الاصطناعي لتصميم فيروس جديد قادر على إطلاق وباء عالمي، وفي غضون ساعة فقط، اقترحت هذه النماذج قائمة بأربعة مسببات محتملة للوباء.

وفي بعض الحالات، قدمت هذه النماذج خططًا تفصيلية لإنشاء فيروسات قاتلة، إذ اقترحت هذه النماذج طفرات جينية محددة لزيادة قدرة الفيروس على الانتشار، ووصفت بالتفصيل الخطوات اللازمة لتصنيع الفيروس في المختبر، بما يشمل: تحديد الشركات التي يمكن أن توفر المواد اللازمة لذلك.

ولكن أكثر ما أثار قلق الباحثين والعلماء في هذه الدراسة هو تقديم نماذج الذكاء الاصطناعي إرشادات مفصلة حول كيفية تجاوز العقبات التي قد يواجهها شخص غير متخصص في هذا المجال.

وقد أثبتت هذه الدراسة أن الذكاء الاصطناعي يمكن أن يكون أداة قوية في أيدي من يسعون إلى الشر، فبفضل قدراته يمكن لأي شخص، حتى من ليس لديه خلفية علمية، أن يكتسب المعرفة اللازمة لتصميم أسلحة بيولوجية. وقد أثار هذا السيناريو قلقًا واسعًا لدى صناع القرار حول التهديدات الأمنية المتزايدة التي يشكلها تقاطع الذكاء الاصطناعي والبيولوجيا.

الأتمتة والتصميم البيولوجي.. تهديدات مستقبلية:

لا يقتصر تأثير الذكاء الاصطناعي على توفير المعلومات، بل إنه يمتد إلى مجال الأتمتة والتصميم البيولوجي. فمع تطور أدوات الذكاء الاصطناعي، يمكن لأي شخص تقريبًا تصميم جزيئات بيولوجية جديدة وتطوير كائنات حية معدلة وراثيًا. ويعني ذلك أن تطوير الأسلحة البيولوجية سيصبح أسهل وأسرع من أي وقت مضى، مما يزيد من صعوبة اكتشافها ومنعها.

كيف يمكن احتواء مخاطر تقاطع الذكاء الاصطناعي والبيولوجيا؟

يمثل التقاطع بين الذكاء الاصطناعي والبيولوجيا تحديًا جديدًا وخطيرًا للأمن البيولوجي العالمي، ويتطلب ذلك العمل على تقوية الدفاعات البيولوجية وتطوير أنظمة ذكاء اصطناعي آمنة.

ولتقليل مخاطر سوء استخدام التكنولوجيا الحيوية، يجب تعزيز الرقابة على سلسلة توريد المواد الجينية، وخاصة عملية (توليف الجينات)، وهي عملية اصطناعية لإنشاء تسلسلات جينية جديدة من الصفر، أو تعديل تسلسلات جينية موجودة، ويعني ذلك إنشاء جينات حسب الطلب.

وتُعدّ عملية توليف الجينات بمنزلة سلاح ذو حدين، فهي قادرة على تحقيق إنجازات طبية هائلة، ولكنها في الوقت نفسه تحمل مخاطر جسيمة. فبفضل تطور تقنيات التوليف الجيني، أصبح من الممكن تصنيع فيروسات وبكتيريا معدلة وراثيًا بخصائص جديدة وخطيرة. ويزيد هذا الأمر من خطر وقوع هجمات بيولوجية، سواء كانت من قبل دول أو جماعات إرهابية، وللتقليل من هذه المخاطر، يجب أن تكون هناك رقابة صارمة على سلسلة توريد المواد الجينية.

ومع ذلك، فإن العديد من الشركات التي تقدم خدمات توليف الجينات لا تُفحص طلباتها بنحو كافٍ، مما يجعل من السهل الحصول على المواد اللازمة لتصنيع عوامل بيولوجية خطيرة. بالإضافة إلى ذلك، فإن تطور أدوات الذكاء الاصطناعي يزيد من تعقيد المشكلة، حيث يمكن لهذه الأدوات أن تساعد الأفراد غير المؤهلين على فهم المعلومات العلمية المعقدة المتعلقة بالتوليف الجيني واستخدامها لأغراض ضارة.

وقد أظهرت دراسة معهد ماساتشوستس للتكنولوجيا، أن نماذج الذكاء الاصطناعي الحالية ماهرة جدًا في الإشارة إلى هذه الحقيقة وإعطاء التعليمات حول كيفية استغلال مثل هذه نقاط الضعف في أمن سلسلة التوريد.

وبالإضافة إلى تعزيز تدابير الأمن البيولوجي العامة، نحتاج أيضًا إلى التركيز بنحو خاص على المخاطر التي يشكلها الذكاء الاصطناعي، ولا سيما النماذج اللغوية الكبيرة، لأن هذه النماذج لا تقتصر على تسهيل الوصول إلى المعلومات الضارة، بل قد تساهم في تطوير تقنيات بيولوجية خطيرة بطرق غير متوقعة، لذلك يجب وضع إستراتيجيات شاملة للحد من هذه المخاطر.

ويجب أن تشمل هذه الإستراتيجيات تطوير معايير جديدة لتقييم المخاطر المرتبطة بالنماذج اللغوية الكبيرة، وتطوير أدوات للكشف عن الاستخدامات الضارة للذكاء الاصطناعي.

ومن ثم، تشمل الإجراءات الوقائية اللازمة لاحتواء مخاطر تقاطع الذكاء الاصطناعي والبيولوجيا حاليًا:

  • الفحص الإلزامي لتوليف الجينات: يجب أن يكون هناك نظام عالمي لفحص جميع طلبات توليف الجينات، بغض النظر عن حجم الشركة أو موقعها الجغرافي.
  • تحديث اللوائح: يجب تحديث اللوائح والقوانين الحالية لتغطية التطورات الحديثة في مجال البيولوجيا والذكاء الاصطناعي.
  • التعاون الدولي: يجب على الدول والشركات والمنظمات الدولية التعاون من أجل تطوير معايير مشتركة للأمن البيولوجي.
  • تطوير أدوات الذكاء الاصطناعي الدفاعية: يمكن استخدام الذكاء الاصطناعي نفسه لتطوير أدوات للكشف عن التهديدات البيولوجية الجديدة وتتبعها.

وتجدر الإشارة إلى أهمية عامل الوقت هنا، إذ إن نماذج الذكاء الاصطناعي تتطور بسرعة، لذلك يتطلب التهديد التكاتف بين كافة الجهات لوضع حلول فعالة قبل أن يخرج الوضع عن السيطرة.

الخلاصة:

يمثل الذكاء الاصطناعي فرصة كبيرة للتقدم العلمي، ولكن يجب التعامل معه بحذر شديد. فبدون وضع ضوابط مناسبة، يمكن أن يؤدي إلى عواقب وخيمة على الأمن البيولوجي العالمي. لذلك يجب الاستثمار في البحث والتطوير في مجال الأمن البيولوجي، وتشجيع التعاون الدولي، كما  يجب على المجتمع الدولي أن يتخذ إجراءات عاجلة لتنظيم تطوير واستخدام الذكاء الاصطناعي، وضمان عدم استخدامه لأغراض ضارة.

تصميم و تطوير