التعامل مع المخاطر عبر الإنترنت وتعزيز الدفاعات في عصر الذكاء الاصطناعي
يشهد عالم الأمان عبر الإنترنت اليوم تحولاً هائلاً. يأتي الذكاء الاصطناعي (AI) في طليعة هذا التغيير، ما يشكل تهديداً وفرصة في آن واحد. في حين أن الذكاء الاصطناعي لديه القدرة على تمكين المؤسسات من هزيمة الهجمات الإلكترونية بسرعة الآلة ودفع الابتكار والكفاءة في اكتشاف المخاطر والمطاردة والاستجابة للحوادث، يمكن للخصوم استخدام الذكاء الاصطناعي كجزء من مآثرهم. لم يكن تصميم الذكاء الاصطناعي ونشره واستخدامه بشكل آمن أكثر أهمية بالنسبة لنا من أي وقت مضى.
في Microsoft، نستكشف إمكانات الذكاء الاصطناعي لتعزيز إجراءات الأمان لدينا، وفتح وسائل حماية جديدة ومتقدمة، وبناء برامج أفضل. بفضل الذكاء الاصطناعي، لدينا القدرة على التكيف جنباً إلى جنب مع المخاطر المتطورة، واكتشاف الحالات الشاذة على الفور، والاستجابة بسرعة لتحييد المخاطر، وتصميم الدفاعات لتناسب احتياجات المؤسسة.
يمكن أن يساعدنا الذكاء الاصطناعي أيضاً في التغلب على أحد أكبر التحديات التي تواجه الصناعة. في مواجهة النقص العالمي في القوى العاملة في مجال الأمان عبر الإنترنت مع الحاجة إلى ما يقرب من 4 ملايين متخصص في مجال الأمان عبر الإنترنت في جميع أنحاء العالم، يتمتع الذكاء الاصطناعي بالقدرة على أن يكون أداة محورية لسد فجوة المواهب ولمساعدة المدافعين على أن يكونوا أكثر إنتاجية.
لقد رأينا بالفعل في إحدى الدراسات كيف يمكن لـ Copilot للأمان مساعدة محللي الأمن بغض النظر عن مستوى خبرتهم - في جميع المهام، كان المشاركون أكثر دقة بنسبة 44 بالمائة وأسرع بنسبة 26 بالمائة.
بينما نتطلع إلى تأمين المستقبل، يجب علينا أن نضمن أننا نوازن بين الاستعداد الآمن للذكاء الاصطناعي والاستفادة من فوائده، لأن الذكاء الاصطناعي لديه القدرة على رفع الإمكانات البشرية وحل بعض من أخطر التحديات التي تواجهنا.
سيتطلب المستقبل الأكثر أماناً مع الذكاء الاصطناعي تطورات أساسية في هندسة البرمجيات. وسوف يتطلب منا أن نفهم ونواجه التهديدات التي يحركها الذكاء الاصطناعي بوصفها مكونات أساسية لأي استراتيجية أمنية. ويجب علينا أن نعمل معاً لبناء تعاون عميق وشراكات عبر القطاعين العام والخاص لمكافحة ممثلي المخاطر السيئين.
كجزء من هذا الجهد ومبادرة المستقبل الآمن الخاصة بنا، تنشر OpenAI وMicrosoft معلومات استخباراتية جديدة توضح بالتفصيل محاولات ممثلي لاختبار مدى فائدة نماذج اللغة الطبيعية (LLMs) واستكشافها في تقنيات الهجوم.
نأمل أن تكون هذه المعلومات مفيدة عبر الصناعات حيث نعمل جميعاً من أجل مستقبل أكثر أماناً. لأننا في النهاية جميعنا مدافعون.
CVP، كبير مستشاري الأمان عبر الإنترنت
شاهد الموجز الرقمي الخاص من Cyber Signals حيث يجري فاسو جاكال، رئيس شركة Microsoft Security Business، مقابلات مع خبراء التحليل الذكي للمخاطر الأساسية بشأن المخاطر عبر الإنترنت في عصر الذكاء الاصطناعي، والطرق التي تستخدم بها Microsoft الذكاء الاصطناعي لتعزيز الأمان، وما يمكن أن تفعله المؤسسات للمساعدة في تعزيز الدفاعات.
المهاجمون يكتشفون تقنيات الذكاء الاصطناعي
لقد أصبح مشهد المخاطر عبر الإنترنت مليئاً بالتحديات بشكل متزايد حيث أصبح المهاجمون أكثر حماساً وتطوراً وأفضل موارد. يتطلع ممثلو المخاطر والمدافعون على حد سواء إلى الذكاء الاصطناعي، بما في ذلك نماذج اللغات الطبيعية لتعزيز إنتاجيتهم والاستفادة من المنصات التي يمكن الوصول إليها والتي يمكن أن تناسب أهدافهم وتقنيات الهجوم.
نظراً لمشهد المخاطر سريع التطور، نعلن اليوم عن مبادئ Microsoft التي توجه أعمالنا والتي تخفف من مخاطر ممثلي المخاطر بما في ذلك المخاطر المستمرة المتقدمة (APTs) والمتلاعبين المستمرين المتقدمين (APMs) وعصابات مجرمي الإنترنت، باستخدام أنظمة الذكاء الاصطناعي الأساسية وواجهات برمجة التطبيقات. تتضمن هذه المبادئ تحديد إجراءات واتخاذها ضد استخدام ممثلي المخاطر الخبيثون للذكاء الاصطناعي، وإخطار مقدمي خدمات الذكاء الاصطناعي الآخرين، والتعاون مع أصحاب المصلحة الآخرين، والشفافية.
على الرغم من اختلاف دوافع ممثلي المخاطر وتطورهم، يشتركون في مهام متماثلة عند نشر الهجمات. وتشمل هذه الاستطلاعات، مثل البحث عن صناعات الضحايا المحتملين ومواقعهم وعلاقاتهم؛ والترميز، بما في ذلك تحسين البرامج النصية وتطوير البرامج الضارة؛ والمساعدة في تعلم كل من اللغات البشرية والآلية واستخدامها.
بالتعاون مع OpenAI، نشارك التحليل الذكي للمخاطر الذي يظهر الخصوم التابعين للدولة المكتشفين - المتتبعين مثل Forest Blizzard وEmerald Sleet وCrimson Sandstorm وCharcoal Typhoon وSalmon Typhoon - باستخدام نماذج اللغة الطبيعية لتعزيز العمليات عبر الإنترنت.
الهدف من شراكة Microsoft البحثية مع OpenAI هو ضمان الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي مثل ChatGPT، والحفاظ على أعلى معايير التطبيق الأخلاقي لحماية المجتمع من سوء الاستخدام المحتمل.
استهدفت Forest Blizzard (STRONTIUM)، وهي جهة استخباراتية عسكرية روسية فعالة للغاية ومرتبطة بالمديرية الرئيسية لهيئة الأركان العامة للقوات المسلحة الروسية أو الوحدة 26165 GRU، الضحايا ذوي الاهتمام التكتيكي والاستراتيجية للحكومة الروسية. تمتد أنشطتها إلى مجموعة متنوعة من القطاعات بما في ذلك الدفاع، والنقل/اللوجستيات، والحكومة، والطاقة، والمنظمات غير الحكومية، وتكنولوجيا المعلومات
يتضمن استخدام Emerald Sleet لبرامج الماجستير في القانون إجراء أبحاث في مؤسسات الفكر والرأي والخبراء في كوريا الشمالية، بالإضافة إلى إنشاء محتوى من المحتمل استخدامه في حملات التصيد الاحتيالي. تفاعلت Emerald Sleet أيضاً مع نماذج اللغات الطبيعية لفهم الثغرات الأمنية المعروفة بشكل عام، واستكشاف المشكلات الفنية وإصلاحها، وللمساعدة في استخدام تقنيات الويب المختلفة.
قيمت مجموعة أخرى مدعومة من الصين، وهي Salmon Typhoon، فعالية استخدام نماذج اللغة الطبيعية طوال عام 2023 للحصول على معلومات حول مواضيع قد تكون حساسة، وأفراد بارزين، والجغرافيا السياسية الإقليمية، ونفوذ الولايات المتحدة، والشؤون الداخلية. ومن الممكن أن تعكس هذه المشاركة المبدئية مع حاملي شهادة الماجستير في القانون توسعاً في مجموعة أدوات جمع المعلومات الاستخبارية ومرحلة تجريبية في تقييم قدرات التقنيات الناشئة.
لم يحددبحثنا مع OpenAI الهجمات المهمة التي تستخدم حاملي شهادات الماجستير التي نراقبها من كثب.
تخذنا تدابير لتعطيل الأصول والحسابات المرتبطة بممثلي المخاطر هؤلاء وتشكيل حواجز الحماية وآليات السلامة حول نماذجنا.
الاحتيال المدعوم بالذكاء الاصطناعي مصدر قلق بالغ آخر. التركيب الصوتي مثال على ذلك، حيث يمكن لعينة صوتية مدتها ثلاث ثوانٍ تدريب النموذج ليبدو مثل أي شخص. حتى شيء غير ضار مثل تحية البريد الصوتي الخاص بك يمكن استخدامه للحصول على عينة كافية.
تعتمد الكثير من كيفية تفاعلنا مع بعضنا البعض وممارسة الأعمال على إثبات الهوية، مثل التعرف على صوت الشخص أو وجهه أو عنوان بريده الإلكتروني أو أسلوب كتابته.
من المهم أن نفهم كيف يستخدم الممثلون الخبيثون الذكاء الاصطناعي لتقويض أنظمة إثبات الهوية القديمة حتى نتمكن من معالجة حالات الاحتيال المعقدة وغيرها من مخاطر الانتحال بالهندسة الاجتماعية الناشئة التي تحجب الهويات.
يمكن أيضاً استخدام الذكاء الاصطناعي لمساعدة الشركات على تعطيل محاولات الاحتيال. على الرغم من أن Microsoft أوقفت تعاملنا مع شركة في البرازيل، فقد اكتشفت أنظمة الذكاء الاصطناعي لدينا محاولاتها لإعادة تشكيل نفسها من أجل الدخول مرة أخرى إلى نظامنا البيئي.
حاولت المجموعة باستمرار إخفاء معلوماتها وإخفاء جذور الملكية وإعادة الدخول، لكن اكتشافات الذكاء الاصطناعي لدينا استخدمت ما يقرب من اثنتي عشرة إشارة خطر للإبلاغ عن الشركة الاحتيالية وربطها بسلوك مشبوه تعرفت عليه مسبقاً، وبالتالي عرقلة محاولاتها.
تلتزم Microsoft بالذكاء الاصطناعي المسؤول الذي يقوده الإنسان والذي يتميز بالخصوصية والأمان، حيث يوفر البشر الإشراف وتقييم الطعون وتفسير النُهج واللوائح.
- استخدم نُهج الوصول المشروط: توفر هذه النُهج إرشادات واضحة ذاتية النشر لتعزيز وضع الأمان لديك والذي سيحمي المستأجرين تلقائياً بناءً على إشارات المخاطر والترخيص والاستخدام. تتميز نُهج الوصول المشروط بأنها قابلة للتخصيص وستتكيف مع المشهد المتغير للمخاطر عبر الإنترنت.
- تدريب الموظفين وإعادة تدريبهم على أساليب الانتحال بالهندسة الاجتماعية: يمكنك تثقيف الموظفين والجمهور للتعرف على رسائل البريد الإلكتروني التصيدية، والتصيد الاحتيالي (البريد الصوتي)، والتصيد الاحتيالي عبر الرسائل النصية القصيرة، وهجمات الانتحال بالهندسة الاجتماعية (الرسائل النصية القصيرة/النصية)، وتطبيق أفضل ممارسات الأمان لـ Microsoft Teams.
- حماية البيانات بشكل صارم: تأكد من أن البيانات تظل خاصة ويُجرى التحكم فيها من البداية إلى النهاية.
- الاستفادة من أدوات أمان الذكاء الاصطناعي التوليدية: يمكن لأدوات مثل Microsoft Copilot للأمان توسيع القدرات وتحسين الوضع الأمني للمؤسسة.
- تمكين المصادقة متعددة العوامل: بوسعك تمكين المصادقة متعددة العوامل لجميع المستخدمين، خاصة لوظائف المسؤول، حيث أنها تقلل من خطر الاستيلاء على الحساب بنسبة تزيد عن 99 بالمائة.
التصدي للهجمات
تكتشف Microsoft قدراً هائلاً من حركة المرور الضارة — أكثر من 65 تريليون إشارة أمان عبر الإنترنت يومياً. يعمل الذكاء الاصطناعي على تعزيز قدرتنا على تحليل هذه المعلومات والتأكد من ظهور الأفكار الأكثر قيمة للمساعدة في إيقاف المخاطر.. نستخدم أيضاً ذكاء الإشارة هذا لتشغيل الذكاء الاصطناعي التوليدي للحماية المتقدمة من المخاطر وأمان البيانات، وأمان الهوية لمساعدة المدافعين في اكتشاف ما يفوته الآخرون.
تستخدم Microsoft عدة طرق لحماية نفسها وعملائها من المخاطر عبر الإنترنت بما في ذلك الكشف عن المخاطر المدعومة بالذكاء الاصطناعي لاكتشاف التغييرات في كيفية استخدام الموارد أو نسبة استخدام الشبكة؛ والتحليلات السلوكية للكشف عن عمليات تسجيل الدخول المحفوفة بالمخاطر والسلوك الشاذ؛ ونماذج التعلم الآلي (ML) لاكتشاف عمليات تسجيل الدخول والبرامج الضارة الخطرة؛ ونماذج الثقة المعدومة حيث يجب أن تُجرى مصادقة كل طلب وصول وتفويضه وتشفيره بشكل كامل؛ والتحقق من صحة الجهاز قبل أن يتمكن الجهاز من الاتصال بشبكة الشركة.
نظرًا لأن المخاطر عبر الإنترنت تدرك أن Microsoft تستخدم المصادقة متعددة العوامل (MFA) بصرامة لحماية نفسها - حيث أُعد جميع موظفينا للمصادقة متعددة العوامل أو الحماية بدون كلمة مرور - فقد رأينا مهاجمين يميلون إلى الانتحال بالهندسة الاجتماعية في محاولة لتعريض موظفينا للخطر.
وتشمل النقاط الفعالة لذلك المجالات التي يُجرى فيها نقل الأشياء ذات القيمة، مثل التجارب المجانية أو الأسعار الترويجية للخدمات أو المنتجات. في هذه المناطق، ليس من المربح للمهاجمين سرقة اشتراك واحد في كل مرة، لذلك يحاولون تفعيل تلك الهجمات وتوسيع نطاقها دون كشفهم.
وبطبيعة الحال، نبني نماذج الذكاء الاصطناعي لاكتشاف هذه الهجمات لصالح Microsoft وعملائنا. نكتشف حسابات الطلاب والمدارس المزيفة والشركات أو المنظمات المزيفة التي غيرت بياناتها الرسمية أو أخفت هوياتها الحقيقية للتهرب من العقوبات أو التحايل على الضوابط أو إخفاء التجاوزات الإجرامية السابقة مثل إدانات الفساد ومحاولات السرقة وما إلى ذلك.
يساعد استخدام GitHub Copilot وMicrosoft Copilot للأمان وميزات الدردشة المساعدة الأخرى المدمجة في البنية التحتية للهندسة والعمليات الداخلية لدينا على منع الحوادث التي قد تؤثر على العمليات.
ولمعالجة مخاطر البريد الإلكتروني، تعمل Microsoft على تحسين قدراتها على جمع الإشارات إلى جانب تكوين البريد الإلكتروني لفهم ما إذا كانت ضارة. مع وجود الذكاء الاصطناعي في أيدي ممثلي المخاطر، كان هناك تدفق لرسائل البريد الإلكتروني المكتوبة بشكل مثالي والتي تعمل على تحسين اللغة الواضحة والأخطاء النحوية التي غالباً ما تكشف عن محاولات التصيد الاحتيالي، ما يجعل كشف محاولات التصيد أكثر صعوبة.
هناك حاجة إلى استمرار حملات تثقيف الموظفين وتوعية الجمهور للمساعدة في مكافحة الانتحال بالهندسة الاجتماعية وهي الرافعة الوحيدة التي تعتمد بنسبة 100 بالمائة على الخطأ البشري. علمنا التاريخ أن حملات التوعية العامة الفعالة تعمل على تغيير السلوك.
تتوقع Microsoft أن يطور الذكاء الاصطناعي تكتيكات الانتحال بالهندسة الاجتماعية ما يؤدي إلى إنشاء هجمات أكثر تعقيداً بما في ذلك التزييف العميق واستنساخ الصوت، خاصة إذا وجد المهاجمون أن تقنيات الذكاء الاصطناعي تعمل بدون ممارسات مسؤولة وضوابط أمنية مدمجة.
الوقاية أمر أساسي لمكافحة جميع المخاطر عبر الإنترنت سواء كانت تقليدية أو مدعومة بالذكاء الاصطناعي.
توصيات:
احصل على مزيد من الأفكار حول الذكاء الاصطناعي من هوما حياتفار، مدير البيانات الرئيسية والعلوم التطبيقية، ومدير تحليلات الكشف.
لم تعد الأدوات التقليدية تواكب المخاطر التي يشكلها مجرمون الإنترنت. تتطلب السرعة المتزايدة والحجم والتعقيد للهجمات الإلكترونية الأخيرة اتباع نهج جديد للأمان. بالإضافة إلى ذلك، ونظراً لنقص القوى العاملة في مجال الأمان عبر الإنترنت، ومع تزايد المخاطر عبر الإنترنت من حيث تواترها وشدتها، فإن سد هذه الفجوة في المهارات حاجة ملحة.
يمكن للذكاء الاصطناعي أن يقلب الموازين بالنسبة للمدافعين. أظهرت إحدى الدراسات الحديثة لـ Microsoft Copilot للأمان (حالياً في اختبار معاينة عميل) زيادة في سرعة محللي الأمان ودقتهم، بغض النظر عن مستوى خبرتهم، عبر المهام الشائعة مثل تحديد البرامج النصية التي يستخدمها المهاجمون، وإنشاء تقارير الحوادث، وتحديد خطوات العلاج المناسبة.1
- [1]
المنهجية:1 تمثل البيانات السريعة تجربة عشوائية مُتحكم بها (RCT)، حيث اختبرنا 149 شخصاً لقياس تأثير الإنتاجية من استخدام Microsoft Copilot للأمان. في هذه التجربة العشوائية المتحكم بها، أعطينا Copilot لبعض المحللين بشكل عشوائي دون غيرهم، ثم طرحنا أداءهم ومشاعرهم للحصول على تأثير Copilot منفصلاً عن أي تأثير أساسي. كان لدى الأشخاص الخاضعين للاختبار مهارات أساسية في مجال تكنولوجيا المعلومات، لكنهم كانوا مبتدئين في مجال الأمان، لذلك تمكنا من اختبار كيف يساعد Copilot المحللين "الجدد في حياتهم المهنية". أجُريت تجربة عشوائية مُتحكم بها لـ Microsoft Copilot للأمان بواسطة مكتب Microsoft Office لكبير الاقتصاديين، نوفمبر 2023. بالإضافة إلى ذلك، يوفر Microsoft Entra ID بيانات مجهولة المصدر حول أنشطة المخاطر، مثل حسابات البريد الإلكتروني الضارة ورسائل البريد الإلكتروني التصيدية وحركة المهاجمين داخل الشبكات. يُجرى الحصول على نتائج تحليلات إضافية من 65 تريليون إشارة أمان يومية عبر Microsoft، بما في ذلك السحابة ونقاط النهاية والحافة الذكية وفرق الكشف والاستجابة لاسترداد الأمان من الاختراقات وفرق الكشف والاستجابة والقياس عن بعد من أنظمة Microsoft الأساسية وخدماتها بما في ذلك Microsoft Defender وتقري الدفاع الرقمي من Microsoft لعام 2023.