متصفح الذكاء الاصطناعي أطلس شات جي بي تي يعاني من ثغرة أمنية خطيرة

 


وعد بالذكاء… وخطر في الكواليس

بعد أيام فقط من إطلاقه الأولي، كشفت موجة من الأبحاث الأمنية عن ثغرات أساسية في بنية متصفح أطلس من OpenAI، لتتحول التجربة التي وُصفت بأنها مستقبل التصفح الذكي إلى تحذير مبكر حول حدود الأمان في المتصفحات المعززة بالذكاء الاصطناعي.

عندما كشفت OpenAI عن ChatGPT Atlas، لم يكن الإعلان مجرد إصدار متصفح جديد، بل خطوة نحو متصفحات قادرة على التفكير والتصرّف نيابةً عن المستخدم — من حجز الرحلات إلى إتمام عمليات الشراء. الفكرة مغرية، لكن ظهور الثغرات بعد أيام من الإطلاق يضع هذه الطموحات تحت فحص أمني صارم.

كيف انهار الوهم: هجمات الحقن التوجيهي

كانت أولى الهجمات التي تم إثباتها هي الحقن التوجيهي (Prompt Injection)، حيث أظهر باحثون مثل P1njc70r أن أطلس يمكن خداعه عبر أوامر مخفية داخل صفحات الويب. في إحدى التجارب التي لفتت الانتباه، طُلب من أطلس تلخيص مستند في Google Docs، لكنه بدلاً من ذلك أجاب بجملة واحدة:

“Trust No AI”

السبب كان تعليمات مخفية بخط رمادي شبه غير مرئي داخل الصفحة نفسها. هذا النوع من الهجمات لا يستغل ثغرة برمجية تقليدية، بل يستغل ثقة نموذج اللغة بالمحتوى الذي يعالجه. والخطر يتفاقم حين يتصرف المتصفح كـوكيل آلي ينفذ الأوامر نيابةً عن المستخدم، ما يجعل خداع الذكاء الاصطناعي مكافئًا لاختراق نية المستخدم نفسه.

تجارب مماثلة أظهرت أن Perplexity Comet وغيرها من المتصفحات الذكية معرضة لهجمات مشابهة، حتى عندما تُخفى الأوامر داخل صور أو تعليقات شبكات اجتماعية — ما دفع باحثي الأمن لوصف المشكلة بأنها مشكلة نظامية في فئة المتصفحات الذكية، لا ثغرة عرضية يمكن تجاهلها.

ثغرة الحافظة: الجبهة الثانية للهجوم

اكتشف المخترق الأخلاقي Pliny the Liberator أن أطلس لا يكتفي بالتعامل مع الأوامر النصية فحسب، بل يمكن استغلاله عبر التلاعب بـحافظة النظام (Clipboard). عبر زر "نسخ إلى الحافظة" مزيف في موقع خبيث، يمكن للمهاجم إدراج روابط ضارة في الحافظة دون علم المستخدم.

وتكمن الخطورة القصوى في وضع "الوكيل الآلي"، حيث لا يتطلب الهجوم أي نقرة من المستخدم. فبينما تطلب من أطلس حجز وجبة عشاء أو البحث عن رحلة، قد يقوم هو، في الخلفية، بالضغط على زر النسخ الخبيث دون علمك، محولًا مهمة بسيطة إلى فخ أمني متطور. وهنا تظهر مفارقة أمنية: OpenAI دربت أطلس على التعرف على بعض هجمات الحقن، لكنها لم تمنحه رؤية كافية لاكتشاف تلاعب الحافظة، فيمر الهجوم من تحت رادار الحماية.

تحدي الجيل الجديد من المتصفحات: بين الطموح والأمان

تؤكد OpenAI أن أطلس لا يمكنه الوصول إلى التطبيقات الأخرى أو الملفات المحلية أو كلمات المرور المحفوظة، وأنه لن يسجل الدخول إلى أي حساب دون إذن المستخدم. ومع ذلك، اعترفت الشركة بأن "جهودها لا تقضي على جميع المخاطر" — إقرار يُبرز أن التحديثات الأمنية ليست حلاً نهائيًا بقدر ما هي جزء من عملية تطورية مستمرة.

التهديدات الحديثة لم تعد تقليدية؛ ما نراه هو ما سمّاه بعض الباحثين هندسة السياق الهجومية — تصميم محتوى ويب يخدع النموذج نفسه. لماذا يهم هذا للمستخدم أو المطور؟ لأن أساليب الحماية التقليدية لم تعد كافية: المعركة الآن تدور حول إقناع "الحارس" (النموذج) بأداء إجراءٍ ضار، وليس مجرد محاولة كسر حماية تقليدية. هذا يفرض على مطوري النماذج التفكير في "علم نفس" نماذجهم وليس فقط في بنى كودها.

مقارنة خيارات الأمان والاعتماد

عند مقارنة النهج، يظهر تباين واضح بين تصريحات الشركات وجهود الباحثين: تقارير Brave ونتائج اختبارات مستقلّة تضع احتمالية الاستغلال في مقدّمة المخاوف، بينما تبرز تصريحات OpenAI إجراءات دفاعية مثل تدريب النموذج على تجاهل التعليمات الضارة وأنظمة رصد متداخلة. هذا التناقض لا يدل بالضرورة على فشل جهة بعينها، بل يكشف عن طبيعة لعبة القط والفأر في أمن الذكاء الاصطناعي؛ كل اكتشاف يفرض تطوير طبقة دفاعية جديدة، وكل دفاع يصبح تحديًا لهجمات أكثر تعقيدًا.

حالات استخدام واقعية توضّح التأثير

إليكم أمثلة تبين كيف يتجسد الخطر عمليًا:

  • المستخدم المتعدد المهام: نسخ رابط هام من محرر مستندات ثم طلب من أطلس حجز تذكرة — قد يستبدل الوكيل محتوى الحافظة برابط مزيف يؤدي إلى صفحة تصيد.
  • الأعمال التجارية الصغيرة: تفويض الوكيل بإضافة عناصر إلى عربة تسوق إلكترونية — يمكن خداع الوكيل لإتمام عمليات دفع إلى حسابات مهاجمين.
  • الباحثون والمسؤولون عن أمن المؤسسات: استخدام أدوات المراجعة الآلية للمواقع قد يُعرضهم لسلسلة من الأوامر الخفية التي تُسرب بيانات داخلية إذا كانت جلساتهم مسجَّلة في المتصفح.

مخاوف تقنية وأخلاقية

التحديات لا تقتصر على التقنية فقط؛ هناك أيضًا مقايضات أخلاقية تتعلق بالثقة والشفافية. هل يجب أن يُعلم المستخدم في كل مرة يتصرف فيها الوكيل نيابة عنه؟ كيف نُواجه هجمات تخدع النموذج دون التضحية بفائدة الأتمتة؟

الإجابة التقنية تتطلب آليات تحقق من النية، سجلات تصرّف قابلة للتدقيق، وقيودًا على الأفعال التي يمكن للوكيل تنفيذها دون تأكيدات متعددة من المستخدم.

التوصيات العملية

لمطوري النماذج والمنتجات:

  • اختبروا النماذج ضد سيناريوهات «الهندسة الخبيثة» كما تختبرونها ضد سيناريوهات الأداء الوظيفي.
  • طبّقوا مصفوفة مقارنة للادعاءات: قيّموا خطورة الثغرات، فعالية الضوابط الحالية، والتكلفة التشغيلية لكل دفاع.
  • اعتمدوا آليات تقييدية للأفعال الحساسة (مثل التفاعل مع الحافظة أو النقر الآلي) تتطلب طبقات تحقق إضافية.

للمستخدمين وقادة الأعمال:

  • عاملوا وكلاء الذكاء بالشك: لا تفوضوا أفعالًا حساسة دون مراقبة أو تحقق بشري.
  • فكّروا في سياسات الجلسة: قللوا من تسجيل الدخول إلى حسابات حساسة أثناء استخدام قدرات الوكيل.

خلاصة تحليلية موجزة

أطلس لا يمثّل فشلًا نهائيًا للتقنية، لكنه إشارة واضحة إلى أن انتقال الذكاء الاصطناعي من أداة تحليل إلى وكيل منفّذ يغيّر قواعد اللعبة الأمنية. الدفاعات يجب أن تُصمم لتفهم اللغة والسياق كما يفعل الخصم، وإلا فسيبقى اللاعب البشري الحلقة الأهم في ضمان الأمان.

ما تعلمته من سنوات تغطية التكنولوجيا

من منظوري كصحفي تقني تابع هذا المجال لأكثر من عقد، ما يحدث مع أطلس ليس مجرد ثغرة عابرة، بل تكرار لنمط تاريخي: كل نقلة ثورية تُولّد شكلًا جديدًا من المخاطر. تذكّروا ضجيج البلوك تشين في 2017 ووعوده، ثم لاحقًا تبيّن أن التحديات العملية والاعتماد الواقعي كانتا أكبر من الضجيج الإعلامي. رأيت نمطًا مشابهًا مع إطلاق نماذج اللغة الكبرى: وعود هائلة متبوعة بفترات تصحيح وتحسين طويل الأمد.

النصيحة العملية التي أقدّمها للمطورين: اختبروا منتجاتكم ضد سيناريوهات خداع النماذج (offensive context engineering) بنفس الجِدّ الذي تختبرون به الأداء الوظيفي. وللمستثمرين وقادة الأعمال: قيموا المخاطر التشغيلية والأمنية كنقطة مركزية قبل تبنّي أتمتة واسعة النطاق تعتمد على وكلاء ذكاء اصطناعي.

أطلس خطوة جريئة نحو تصفح أكثر ذكاءً — لكنها أيضًا تذكير عملي بأن الذكاء ليس آمنًا بمجرّد كونه ذكيًا. الأمان يتطلّب وعيًا بشريًا وتصميمًا دفاعيًا يفهم اللغة، السياق، والنوايا بقدر ما تفهمها النماذج نفسها.

أحدث أقدم