اوبن كلو: ثورة الذكاء الاصطناعي ومخاوف الامن السيبراني

يثير صعود وكيل الذكاء الاصطناعي المفتوح "اوبن كلو" تساؤلات حول المخاطر الامنية وحدود التحكم في هذه الانظمة، فبينما يرى بعض المطورين فيه نقلة نوعية، يحذر خبراء الامن السيبراني من قدرته على الوصول الى التطبيقات والملفات والانظمة المحلية، ما قد يفتح الباب امام تحديات تتعلق بحماية البيانات والحوكمة التقنية.

في المنطقة العربية، يطرح انتشار هؤلاء الوكلاء تساؤلات حول مدى جاهزية المؤسسات للتعامل مع انظمة تعمل بدرجة عالية من الاستقلالية.

برز "اوبن كلو" كأحد اكثر المشاريع اثارة للاهتمام في عالم الذكاء الاصطناعي، وبدأ المشروع الذي طوره المبرمج النمساوي بيتر شتاينبرغر لتمكين المطورين من انشاء وكلاء يعملون مباشرة على اجهزة المستخدمين، لكنه سرعان ما جذب اهتمام المطورين والجمهور وشركات التكنولوجيا.

أطلق المشروع اول مرة في نوفمبر باسم "كلاود بوت" قبل ان يعاد تسميته الى "مولت بوت" ثم "اوبن كلو"، وزاد الاهتمام به بعد انتقال مطوره شتاينبرغر للعمل مع "اوبن ايه اي" بقيادة سام التمان، وهو ما اعتبره مراقبون مؤشرا على مرحلة جديدة في تطوير الوكلاء الاذكياء.

لكن هذه القدرة على العمل خارج بيئات السحابة التقليدية اثارت قلقا من وصول هؤلاء الوكلاء الى الملفات والتطبيقات والبيانات المحلية، ما قد يفتح الباب امام مخاطر الخصوصية وتسريب المعلومات الحساسة، اضافة الى الطبيعة الاحتمالية لهذه الانظمة التي تجعل التنبؤ الكامل بسلوكها صعبا.

قال جاسم حجي، رئيس جمعية الذكاء الاصطناعي ورئيس المجموعة الدولية للذكاء الاصطناعي في البحرين، ان التحدي الاكبر عند استخدام وكلاء الذكاء الاصطناعي مثل "اوبن كلو" داخل المؤسسات يظهر عند ربطها بعدة انظمة وخدمات رقمية في الوقت نفسه، كالبريد الالكتروني والرسائل والمتصفح والملفات وواجهات برمجة التطبيقات.

واضاف ان هذا التكامل قد يفتح الباب امام مخاطر مثل الوصول غير المقيد الى الانظمة الداخلية، واحتمال تنفيذ اوامر غير مقصودة نتيجة اخطاء في تفسير التعليمات او ما يعرف بظاهرة "هلوسة النماذج"، كما تظهر تحديات اخرى مرتبطة بادارة الصلاحيات والهويات الرقمية عند ربط الوكيل بعدة خدمات او قواعد بيانات.

واكد حجي ان هذه التحديات مهمة خاصة في المنطقة العربية، حيث لا تزال المؤسسات تطور سياسات الحوكمة الخاصة بالذكاء الاصطناعي.

واوضح في حديث للجزيرة نت ان الشركات تحتاج اعتماد ضوابط تقنية واضحة قبل نشر هذه الانظمة في بيئات العمل الفعلية، مثل تشغيل الوكلاء في بيئات اختبار معزولة، وتطبيق مبدأ اقل صلاحية في الوصول الى الانظمة، واستخدام انظمة مراقبة وتسجيل للانشطة.

يلفت حجي الى ان الطبيعة الاحتمالية لانظمة الذكاء الاصطناعي التوليدي قد تزيد من تعقيد ادارة البيانات الحساسة داخل المؤسسات، اذ تعتمد هذه النماذج على آليات احصائية قد تنتج استجابات غير متوقعة، ما قد يؤدي في بعض الحالات الى ادخال بيانات حساسة او استرجاع معلومات غير مقصودة من انظمة داخلية.

ولتقليل المخاطر، نصح حجي المؤسسات بتطبيق ضوابط مثل تصنيف البيانات قبل استخدامها في الانظمة الذكية، واستخدام تقنيات تقليل البيانات او اخفائها، اضافة الى تطبيق طبقات تحكم واضحة في الوصول الى البيانات.

لا تقتصر التحديات على المؤسسات، فمع تزايد امكانية تشغيل وكلاء الذكاء الاصطناعي مباشرة على الاجهزة الشخصية، قد يواجه المستخدمون مخاطر تتعلق بالخصوصية والامن الرقمي.

وحذر حجي من ان هؤلاء الوكلاء قد يطلبون صلاحيات للوصول الى الملفات المحلية او البريد الالكتروني او الحسابات السحابية، وهو ما قد يؤدي الى كشف معلومات حساسة اذا لم تدر الاذونات بعناية.

كما اوصى بتفعيل المصادقة متعددة العوامل ومراجعة الاذونات بشكل دوري، وتجنب ربط الوكلاء بحسابات تحتوي على بيانات حساسة ما لم يكن ذلك ضروريا.

مع توسع استخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، يبرز سؤال حول المسار الذي قد تتبعه الشركات العربية: تطوير نماذج داخلية ام الاعتماد على الحلول العالمية؟

في هذا السياق، قال حسام الدين الاسود، الرئيس التنفيذي لشركة "ناشيونال كوانتوم" وخبير تكنولوجيا المعلومات، ان القرار يعتمد على طبيعة القطاع وحساسية البيانات.

واشار الى ان تطوير نماذج داخلية يتيح تدريب الانظمة على السياقات الثقافية واللهجات العربية، ويمنح المؤسسات "السيادة على البيانات" حيث تبقى البيانات الحساسة داخل البنية الداخلية للشركة.

ورأى ان تطوير نموذج داخلي يمنح الشركات سيطرة كاملة على بياناتها، وهو امر مهم للقطاعات الحساسة مثل البنوك والرعاية الصحية.

لكن هذا المسار، برأيه، يواجه تحديات مثل ندرة الكفاءات المتخصصة في تدريب النماذج اللغوية الكبيرة، وصعوبة بناء قواعد بيانات تدريب عربية، اضافة الى الحاجة لاستثمارات كبيرة في البنية الحاسوبية، خصوصا وحدات معالجة الرسومات، ما يعني تكاليف رأسمالية مرتفعة.

كما تتحمل المؤسسات مسؤولية حماية النماذج من هجمات مثل تسميم البيانات واستخراج النماذج.

في المقابل، توفر النماذج العالمية وصولا سريعا الى قدرات تقنية متقدمة دون بناء بنية تحتية خاصة، لكنها قد تخلق التبعية التقنية وارتفاع تكاليف استخدام واجهات البرمجة مع توسع الاستخدام.

ويرى الاسود ان الخيار الاكثر واقعية هو نهج هجين يجمع بين المسارين، قائلا ان التوجه الاذكى هو استخدام النماذج العالمية للمهام العامة مثل التلخيص وصياغة الرسائل، مع تخصيص نماذج مفتوحة المصدر مثل "لاما" او "فالكون" عبر "الضبط الدقيق" للتعامل مع البيانات الحساسة.

لا تتوقف تحديات وكلاء الذكاء الاصطناعي عند الشركات، بل تمتد الى السياسات العامة والحكومات، ويرى الاسود ان الحكومات في الشرق الاوسط مطالبة بايجاد توازن بين دعم الابتكار وحماية المجتمع، مشيرا الى اهمية الاستثمار في البنية التحتية الرقمية السيادية مثل مراكز البيانات والحوسبة السحابية المحلية لدعم تطوير نماذج ذكاء اصطناعي داخل المنطقة.

كما دعا الى رقمنة وتنظيم المحتوى العربي الموثوق وتوفير قواعد بيانات مفتوحة للمطورين، بما يساعد على تدريب نماذج اكثر ملاءمة للسياق اللغوي والثقافي في المنطقة.

واضاف ان التشريعات المستقبلية يجب ان تعالج قضايا مثل توطين البيانات وشفافية استخدام الذكاء الاصطناعي، مع وضع اطر واضحة لما يعرف بـ "المسؤولية الخوارزمية" لتحديد الجهة المسؤولة عندما تتسبب الانظمة الذكية في اضرار.

في نهاية المطاف، يبقى التعامل مع وكلاء الذكاء الاصطناعي مثل "اوبن كلو" اختبارا لموازنة الابتكار والامان، يتطلب سياسات واضحة وحوكمة دقيقة لضمان استخدام مسؤول وآمن لهذه التكنولوجيا.