كشفت بعض التقارير العالمية والمحلية أن نموذج الذكاء الاصطناعي R1 من شركة ديب سيك، ليس أكثر أمانا من النماذج الأخرى، بل بالعكس هو أكثر عرضة لإنتاج محتويات ضارة، كما أنه معرض للاختراق والتلاعب، مما شك الكثير من خبراء التكنولوجيا وأمن المعلومات في موثوقية النموذج الصيني.
حول ذلك الأمر تحدث الدكتور وليد حجاج، خبير أمن المعلومات، وعضو الهيئة الاستشارية العليا للأمن السيبراني بمؤسسة القادة، والملقب بصائد الهاكرز، فقال: التقارير الأخيرة حول نموذج الذكاء الاصطناعي R1 من شركة ديب سيك تسلط الضوء على مشكلة جوهرية في تقنيات الذكاء الاصطناعي، وهي مدى قدرتها على الالتزام بالضوابط الأخلاقية والأمان. حيث تشير التحليلات إلى أن هذا النموذج أكثر عرضة للتلاعب، مما يجعله قادرًا على إنتاج محتوى خطير مثل تعليمات لهجمات بيولوجية أو حملات قد تضر بالمراهقين نفسيًا.
وأضاف حجاج: هذه الثغرات تثير تساؤلات حول فعالية الضمانات الموضوعة في أنظمة الذكاء الاصطناعي ومدى التزام الشركات المطورة بتحقيق التوازن بين الابتكار والمسؤولية.
وأكد خبير أمن المعلومات وليد حجاج: بناءً على تجربة شخصية، قمت باختبار شات جي بي تي لمعرفة مدى التزامه بالضوابط الأخلاقية والقانونية. عندما حاولت سؤاله بشكل مباشر عن مصدر لتحميل نسخة غير قانونية من كتاب باهظ الثمن، رفض تمامًا، مؤكدًا على حقوق الملكية الفكرية والقوانين التي تحميها. لكن عند إعادة صياغة السؤال بطريقة غير مباشرة، أعطاني الإجابة بسهولة، موضحًا لي المكان الذي يمكنني تحميل الكتاب منه دون أي مقابل. هذا يثبت أن حتى النماذج الأكثر تطورًا يمكن التحايل عليها بطرق بسيطة، وهو ما يثير القلق بشأن قدرتها الفعلية على منع إساءة الاستخدام.

وأردف وعضو الهيئة الاستشارية العليا للأمن السيبراني بمؤسسة القادة، هذه التجربة تؤكد أن التحدي الحقيقي ليس فقط في بناء أنظمة ذكاء اصطناعي ذكية، بل في ضمان أنها تعمل وفق معايير أخلاقية صارمة لا يمكن تجاوزها بسهولة. يجب على الشركات المطورة أن تضع مزيدًا من الإجراءات الصارمة لمنع أي استغلال خاطئ، كما ينبغي للجهات التنظيمية فرض قوانين تضمن استخدام هذه التقنيات بشكل مسؤول. الذكاء الاصطناعي يمكن أن يكون أداة قوية للتطوير، لكن إذا لم يتم التحكم فيه بشكل صحيح، فقد يتحول إلى مصدر خطر حقيقي.
أكثر عرضة لكسر الحماية
من جانبها، نشرت صحيفة صحيفة “وول ستريت جورنال”، تقريرًا، حول نموذج “ديب سيك”، مشيرة إلى أنه أكثر عرضة لإنتاج محتوى ضار.
وقالت الصحيفة في تقريرها إن النموذج الصيني أكثر عرضة لكسر الحماية من نماذج الذكاء الاصطناعي الأخرى، مشيرة إلى أنه يمكن التلاعب بأحدث طراز من “ديب سيك DeepSeek“، لإنتاج محتوى ضار مثل خطط لهجوم بالأسلحة البيولوجية وحملة للترويج لإيذاء النفس بين المراهقين.
وأوضحت أنها اختبرت نموذج R1 الخاص بشركة ديب سيك، ونجحت في إقناع “ديب سيك” بتصميم حملة على وسائل التواصل الاجتماعي، على حد تعبير روبوت الدردشة، “تستغل رغبة المراهقين في الانتماء، وتستغل الضعف العاطفي من خلال التضخيم الخوارزمي”.
كما ورد أن روبوت الدردشة أقنع أيضًا بتقديم تعليمات لشن هجوم بالأسلحة البيولوجية، وكتابة بيان مؤيد لهتلر، وكتابة بريد إلكتروني تصيدي باستخدام رمز ضار.
وقالت الصحيفة إنه عندما تم تزويد “تشات جي بي تي” بنفس الإرشادات بالضبط، رفض الامتثال.