ماذا لو تحول الذكاء الاصطناعي إلى كابوس سيبراني يهدد الأعمال؟

ماذا لو تحول الذكاء الاصطناعي إلى كابوس سيبراني يهدد الأعمال؟

الذكاء الاصطناعي بشرى جديدة في الأمن السيبراني وعالم الأعمال

يقدم الذكاء الاصطناعي قوة تحويلية عبر مختلف القطاعات من خلال توفير قدرات تحول هائلة. فالأدوات المعززة بالذكاء الاصطناعي قادرة على معالجة ملايين البيانات في ثوانٍ، واكتشاف مواطن الخلل، ودعم اتخاذ القرار في قطاعات مثل الرعاية الصحية والتمويل وخدمات العملاء.

وفي الشرق الأوسط، بما في ذلك الكويت، بدأت الحكومات والمؤسسات في توظيف الذكاء الاصطناعي في تطوير المدن الذكية والخدمات الإلكترونية والقطاع المصرفي لتعزيز الكفاءة والأمان. وتشير تقارير لشركات مثل مايكروسوفت وكولفايرإلى أنه عند دمج الذكاء الاصطناعي التوليدي مع الخبرات البشرية، فإن ذلك يعزز قدرات اكتشاف التهديدات وتحليل البيانات والدقة التشغيلية. ورغم هذه الفرص الكبيرة، إلا أن هناك جانبًا تحذيريًا لا يمكن تجاهله.

حصّن شركتك من تهديدات الذكاء الاصطناعي السيبرانية – تواصل مع خبرائنا الآن.

عندما تتحول البشرى إلى كابوس

كلما ازداد ذكاء الأنظمة المعتمدة على الذكاء الاصطناعي، ازدادت معها التهديدات المحتملة. فالقدرات المصممة لدعم الأعمال يمكن أن تُستخدم أيضًا ضدها، إذ تكشف الدراسات الأكاديمية، مثل تلك التي قدمها شيفاني ميتا ويوسف عثمان، كيف يمكن للجهات الخبيثة استغلال الذكاء الاصطناعي لأتمتة حملات التصيّد الاحتيالي، وكتابة الأكواد البرمجية الضارة، وحتى تطوير برمجيات خبيثة قابلة للتكيّف. وعلى عكس التهديدات التقليدية، تتميّز هذه الهجمات بالسرعة والدقة وصعوبة الاكتشاف، مما يجعل الأدوات المصممة لحمايتنا يمكن أيضًا أن تشكل تهديداً على أمن المعلومات.

الذكاء الاصطناعي في أيدٍ غير أمينة

يستغل مجرمو الإنترنت قدرات الذكاء الاصطناعي بالفعل. إن خِدع البريد الإلكتروني التي كانت تبدو بدائية أصبحت اليوم شبه مطابقة للرسائل الحقيقية، حيث تُكتب بلغة سليمة ومقنعة من خلال نماذج لغوية متقدمة. وفي المنتديات المظلمة، يتم تسويق أدوات مثل WormGPT وFraudGPT خصيصًا لاستخدامها في الاحتيال والهندسة الاجتماعية. كما أدرجت مؤسسة OWASP تقنية “حقن الأوامر” (Prompt Injection) ، وهي طريقة تتلاعب بأسلوب عمل نماذج الذكاء الاصطناعي، ضمن أخطر التهديدات التي تواجه أنظمة الذكاء الاصطناعي الحديثة. وقد أظهر باحثون أمنيون أيضًا كيفية قدرة “البرمجيات الخبيثة” التي تعمل بالذكاء الاصطناعي على التكاثر ذاتيًا عبر الأنظمة المتصلة، وسرقة البيانات والانتشار دون تدخل بشري.

ثغرات خفية ينبغي لكيانات الأعمال أخذها بعين الاعتبار

لا تقتصر المخاطر على الهجمات الخارجية فحسب، بل إنه في ظل دمج المؤسسات للذكاء الاصطناعي في عملياتها اليومية، تظهر ثغرات جديدة. إن الأدوات مثل روبوتات خدمة العملاء، والخوارزميات التنبؤية، وأنظمة كشف مواطن الخلل قد تشكّل جميعها نقاط ضعف محتملة. فإذا كانت البيانات المستخدمة في تدريب النماذج معيبة أو منحازة أو غير محدثة، فإن الذكاء الاصطناعي قد يتخذ قرارات غير صائبة أو يسهل تضليله. كما يمكن للمهاجمين استغلال النماذج المفتوحة عبر إدخال بيانات خبيثة مضمّنة داخل مستندات أو صفحات ويب، ومن دون ضوابط وصول قوية ورقابة مستمرة، قد تتحول هذه الأنظمة من أصول إلى خصوم.

التضليل والتلاعب على نطاق واسع

يساهم الذكاء الاصطناعي في جعل التمييز بين الحقيقي والمزيف أكثر صعوبة، إذ توجد أدوات قادرة على إنشاء أصوات وصور ومقاطع فيديو ونصوص شديدة الواقعية تُستخدم في انتحال الهوية، والاحتيال، وحملات نشر المعلومات المضللة. هذا المحتوى أكثر إقناعًا من أساليب الاحتيال التقليدية، وغالبًا ما يتجاوز آليات الاكتشاف الأساسية. كما أن بعض هذه الأدوات يُروَّج لها علنًا كوسيلة للاحتيال أو التأثير على الرأي العام. وقد حذرّت صحيفة فاينانشال تايمز وغيرها من المحللين من أن الذكاء الاصطناعي يساهم بالفعل في تسريع الجريمة الإلكترونية وتعقيد الثقة الرقمية داخل المجتمع.

ما أهمية ذلك للكويت؟

تبدي الكويت اهتمامًا قوياً بالتحول الرقمي، حيث إن الاستراتيجيات الوطنية تركز على المدن الذكية، والخدمات المعتمدة على الذكاء الاصطناعي، ومختبرات الابتكار لمواكبة التطورات العالمية. ومع ذلك، فإن تبني الذكاء الاصطناعي يزيد أيضًا من خطر التهديدات السيبرانية، ذلك أن الكثير من كيانات الأعمال والمؤسسات المحلية بدأت باستخدام أدوات الذكاء الاصطناعي دون وجود سياسات واضحة لتنظيمها. وفي أماكن أخرى، مثل الهند، بدأت الحكومات والمؤسسات المالية بالتحول نحو نماذج أمن سيبراني تراعي مخاطر الذكاء الاصطناعي. وبالنسبة للكويت، فإن تجاهل هذه المخاطر قد يعرّض مسيرة التقدم الرقمي للخطر.

خطوات للحد من المخاطر السيبرانية المتعلقة بالذكاء الاصطناعي

في أثناء الاستفادة من قدرات الذكاء الاصطناعي، ينبغي على المؤسسات اتخاذ الإجراءات التالية للتخفيف من مخاطره:

  1. مراجعة وتوثيق جميع أنظمة الذكاء الاصطناعي المستخدمة: فهم مهام كل أداة، وطبيعة البيانات التي تعتمد عليها، وتأثير قراراتها.
  2. اختبار المدخلات والمخرجات بانتظام: استخدام سيناريوهات محاكاة مُسيطر عليها لاكتشاف الثغرات مثل حقن الأوامر أو تسميم البيانات.
  3. تطبيق ضوابط وصول صارمة: تحديد المستخدمين المصرّح لهم بالتفاعل مع النظام، واستخدام المصادقة متعددة العوامل للاتصالات الحساسة.
  4. عدم إلغاء الإشراف البشري: يجب أن يشمل اتخاذ القرارات عالية الخطورة مراجعة بشرية دائمًا.
  5. توعية الموظفين: يجب تدريب جميع العاملين على فهم كيفية استغلال الذكاء الاصطناعي، والتعرف على المحتوى المزيف، والمخرجات المشبوهة، وأي تلاعب محتمل.
  6. متابعة التطورات القانونية والأخلاقية: الرجوع إلى الأطر والتوجيهات الصادرة عن جهات عالمية مثل منظمة التعاون الاقتصادي والتنمية (OECD) والمنتدى الاقتصادي العالمي والهيئات الوطنية للأمن السيبراني.

اقرأ المزيد عن: الركيزة الثانية لمنظمة التعاون الاقتصادي والتنمية وضريبة الحد الأدنى المحلية التكميلية 

يمكنك مشاركة المقال مع أخرين من خلال قنوات التواصل التالية:

عن المؤلف

فريق تحرير بيكر تلي

يضم فريق تحرير بيكر تيلي الكويت خبراء ومحللين ماليين ذوي خبرة وافرة وشهادات مهنية متخصصة معتمدة مثل CIA وCIPA وCPA. يتمتع أعضاء فريقنا بسنوات من الخبرة في الأعمال المالية، مقدمين تحليلات وتوجيهات متخصصة حول مواضيع مالية متنوعة. مع التزامنا بالدقة والاحترافية، نسعى لتزويد قرائنا بمحتوى عالي الجودة يمكنهم من الاستفادة والتنقل في عالم المال بثقة ووضوح.

اتصل بخبرائنا
راسلنا
اتصل بنا