أخر الاخبار

5 طرق يمكن للذكاء الاصطناعي التوليدي من خلالها إعادة تعريف إدارة الوصول إلى الهوية

 يوفر تطبيق Geneative AI في حلول IAM إجراءات أمنية أقوى لموفري IAM. يمكن أن تؤدي الاستفادة من قدرات Gen AI إلى تعزيز الأمان والكفاءة التشغيلية في أطر عمل IAM التنظيمية. ونحن نطلب من الخبراء أن يشرحوا لنا كيف يحدث هذا الآن، وما قد يحدث في المستقبل.



الذكاء الاصطناعي التوليدي

منذ ظهور ChatGPT ، كانت عجلة الذكاء الاصطناعي التوليدي (Gen AI) تدور باستمرار.

في حين أن التكنولوجيا اكتسبت شعبية في الغالب في روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل Google Bard وClaude وChatGPT، إلا أنها تشعبت مع المزيد من حالات الاستخدام، مما أدى إلى ارتفاع معدل الاعتماد في كل من المساحات الشخصية والشركات.

أفادت مؤسسة جارتنر مؤخرًا أن أكثر من 80% من المؤسسات ستستخدم واجهات برمجة التطبيقات (APIs) الخاصة بجيل الذكاء الاصطناعي أو ستنشر تطبيقات تدعمها بحلول عام 2026 ، ارتفاعًا من أقل من 5% في عام 2023.

أحد مجالات التكنولوجيا التي تستعد للدور التحويلي لجيل الذكاء الاصطناعي هو إدارة الهوية والوصول (IAM). أظهرت دراسة استقصائية حديثة أجريت على أكثر من 500 متخصص في مجال الهوية والأمن أن الأغلبية (90%) واثقون من التأثير الإيجابي للذكاء الاصطناعي في تحسين إدارة الهوية والوصول.

ولكن قبل أن نتعمق في الطرق، دعونا نلقي نظرة على بعض التحديات التي تواجه IAM والتي تجعلها جاهزة لتحويل GenAI.


تحديات IAM

إدارة الهويات للمؤسسات تأتي مع الكثير من التعقيدات. مع تزايد عدد وتنوع هويات المستخدمين والموارد السحابية والقوى العاملة اللامركزية وتكنولوجيا المعلومات الظلية، تتعرض الشركات لضغوط لضمان قدرة موظفيها على الوصول بشكل آمن وفعال إلى الشبكات التنظيمية وحسابات البريد الإلكتروني وخوادم الملفات وما إلى ذلك.

قبل الآن، كانت المؤسسات تستفيد من المصادقة المتعددة العوامل (MFA) كوصفة أمنية ضد الهجمات القائمة على الهوية، ولكن مشهد تهديدات IAM آخذ في التغير. يشير تقرير تهديد الهوية الأخير إلى أن المهاجمين تعلموا طرقًا للمناورة بنقاط التفتيش الأمنية المضمنة في MFA من خلال وسائل مثل وكلاء التصيد العكسي ، المعروفين أيضًا باسم وكلاء التصيد في الوقت الحقيقي.


يستخدم مجرمو الإنترنت هذه الطريقة لجمع ملفات تعريف الارتباط للجلسة وتقويض عمليات التحقق من أمان MFA. وأشار التقرير أيضًا إلى وجود أدوات للتهرب من الكشف، وتقنيات تجاوز MFA، وغيرها من ناقلات الهندسة الاجتماعية التي يمكنها كسر MFA. وهذا يعني شيئًا واحدًا فقط – لم يعد الـ MFA كافيًا لتعزيز أمان أنظمة IAM وسهولة استخدامها.

وهنا يأتي دور الجنرال AI في المعركة.

5 طرق يمكن للذكاء الاصطناعي من خلالها إعادة تعريف استخدام IAM في المؤسسات

5. المساهمة في إدارة سياسة الوصول الذكي

تحتوي العديد من أنظمة إدارة الهوية والوصول على مجموعة معقدة من القواعد والمجموعات. أشار أتول تولشيباجوالي، كبير مسؤولي التكنولوجيا في SGNL.ai، إلى أن الأمر يشبه في بعض النواحي الاضطرار إلى البرمجة بلغات منخفضة المستوى مثل لغة التجميع.

في هذه الحالة، يلعب GenAI دورًا حاسمًا في تعزيز إدارة سياسة الوصول الذكي نظرًا لقدرته على الاستفادة من تقنيات الذكاء الاصطناعي المتقدمة (AI) والتعلم الآلي (ML). يسهل Gen AI تحليل مجموعات البيانات الضخمة في الوقت الفعلي لتحديد الأنماط والشذوذات وسلوكيات المستخدم داخل النظام البيئي الرقمي للمؤسسة.

باستخدام الخوارزميات المتطورة ، يستطيع Gen AI التعرف على الاتجاهات في أنماط وصول المستخدم، مما يساعد أنظمة IAM على ضبط سياسات الوصول ديناميكيًا بناءً على البيانات في الوقت الفعلي.

وفقًا لتولشيباجوالي، "يسهل الذكاء الاصطناعي العام على المسؤولين فهم السياسات والمجموعات/الأدوار التي لا تعد ولا تحصى، بحيث يمكن للذكاء الاصطناعي الإجابة على أسئلة حول الوضع الحالي أو حتى إنشاء سياسات وعضويات جديدة بناءً على مطالبات عالية المستوى."

وقال جيديون كالو، المؤسس والرئيس التنفيذي لشركة Femur Inc.، لموقع Techopedia، إنه بفضل القدرة على التعلم المستمر، يستطيع Gen AI فهم سياق طلبات الوصول وتقييمها مقابل سياسات محددة مسبقًا.

يتيح ذلك للمؤسسات تنفيذ ضوابط وصول أكثر تكيفًا، ومنح الوصول أو إلغائه بناءً على عوامل مثل سلوك المستخدم، والموقع، وخصائص الجهاز.


4. كبح التحديات التي يفرضها التهديد الداخلي

بالنسبة لبعض المؤسسات، قد تصبح أصولها الأكثر أهمية هي أيضًا أكبر المخاطر التي تواجهها. تعد التهديدات الداخلية، وإلى حد ما، بيانات اعتماد الزومبي، من نقاط التعرض الرئيسية للعديد من المؤسسات.

ونتيجة لذلك، يمكن لمقدمي خدمات IAM الاستفادة من الذكاء الاصطناعي لإنشاء أفخاخ يتم نشرها تلقائيًا، وتعزيز الكشف السلوكي، وتحسين تقنية الرسم البياني للأصول ضمن منصات الكشف والاستجابة الموسعة (XDR) الخاصة بهم لمكافحة هذه التهديدات.

بالإضافة إلى ذلك، من المرجح أن يستفيد العديد من موفري IAM مثل IBM Cloud Identity و Microsoft Azure و Active Directory وGoogle Cloud Identity من هذا النهج لتقديم منتجات محسنة تركز على الذكاء السياقي لتحسين الحلول القائمة على الهوية للمؤسسات، مما يؤدي إلى سوق IAM توسع.


3. تحسين إدارة حقوق الوصول إلى التطبيق

تعد إدارة بيانات اعتماد حساب الفريق وحقوق الوصول مهمة حساسة ومليئة بالتحديات، خاصة في المؤسسات الكبيرة. يعمل Gen AI على تبسيط هذه العملية المعقدة من خلال أتمتة معظم الوظائف. عندما يخضع الموظف لعملية الإعداد أو الإزالة، يمكن إدخال تفاصيل المستخدم ومعلومات الدور في موجه اللغة الطبيعية ، مما يدفع النموذج إلى إنشاء بيانات اعتماد حساب مخصصة وعضويات المجموعة وحقوق الوصول لمختلف التطبيقات بشكل مستقل.

تشارك تولشيباجوالي وجهة نظر مماثلة حيث ذكرت أن "جيل الذكاء الاصطناعي يمكن أن يساعد المسؤولين في إنشاء قواعد منخفضة المستوى أو عضويات جماعية بناءً على أوصاف عالية المستوى للسياسات".

تعمل ملفات التعريف هذه التي تم إنشاؤها ديناميكيًا كأساس، مما يوفر للمسؤولين نقطة بداية مناسبة. يمكن للمسؤولين بعد ذلك مراجعة الإعدادات التي تم إنشاؤها وضبطها بكفاءة بناءً على متطلبات محددة أو تغييرات دور المستخدم.


2. تحسين توصيات الوصول الشخصية

يمكن أن يساعد الذكاء الاصطناعي التوليدي في تخصيص أذونات الوصول للمستخدمين الفرديين داخل المؤسسة من خلال تحليل أنماط الوصول التاريخية لكل مستخدم ومسؤوليات الوظيفة.


"مع هذا المستوى من التحليل، يكتسب نظام الذكاء الاصطناعي فهمًا دقيقًا للاحتياجات والسلوكيات المحددة لكل شخص في المؤسسة باستخدام عوامل مثل تكرار الوصول إلى موارد معينة، ونوع المهام التي يتم تنفيذها، والسياق الهرمي داخل المنظمة، وقال جدعون كالو، المؤسس والرئيس التنفيذي لشركة Femur Inc.، لـ Techopedia في بيان.



يمكّن هذا التحليل الدقيق النظام من إنشاء توصيات مخصصة تتوافق بدقة مع دور كل مستخدم ومسؤولياته.

هذه التوصيات ليست ثابتة ولكنها تتكيف ديناميكيًا بمرور الوقت مع تطور وظيفة المستخدم أو ظهور أنماط جديدة.

ومن خلال ذلك، يمكن لمسؤولي النظام بسهولة دمج توصيات الوصول المخصصة هذه في بوابة IAM دون الحاجة إلى المعايرة من خلال قوائم أذونات الوصول.


1. تقليل الإيجابيات الكاذبة

تعتبر النتائج الإيجابية الكاذبة أو التنبيهات التي تشير بشكل غير صحيح إلى وجود تهديد أمني أثناء المصادقة مشكلات كبيرة للعديد من موفري IAM.

كان الجيل السابق من نماذج IAM يعمل على إطار عمل قائم على القواعد يلتزم بنهج مبسط "إذا كان هذا هو ذلك". وفي حين أن هذا جعل النظام سهل الإدارة، إلا أن فعاليته كانت محدودة في التعامل مع السيناريوهات المعقدة.


جمعت بعض النماذج بين الأنظمة القائمة على القواعد وتقنيات التعلم الآلي التقليدية، مما يسمح بتحليل البيانات عالية الأبعاد. ولسوء الحظ، أثبت هذا النهج أنه كثيف الاستخدام للموارد، ويتطلب كميات كبيرة من البيانات والوقت.

ومع ذلك، فإن دمج Gen AI في خوارزمية التعلم الآلي التقليدية في حلول IAM يعزز قدرات اكتشاف الاحتيال. وأشار Tulshibagwale إلى أنه "حتى في السيناريوهات التي تقوم فيها متغيرات البرامج الضارة المتقدمة باستمرار بتغيير التعليمات البرمجية وتكتيكات التهرب الخاصة بها استجابةً لآليات الكشف، فإن حلول IAM المبنية على هذا النموذج ستكون قادرة على التكيف وتحديد أنماط الاحتيال المعقدة والمتطورة."

والنتيجة هي انخفاض كبير في النتائج الإيجابية الكاذبة، مما يمثل تقدمًا كبيرًا في كفاءة اكتشاف الاحتيال في أنظمة AIM.

اقرا ايضا:تعرف على مميزات عن Claude 2.1، مساعد الذكاء الاصطناعي الأكثر تقدمًا حتى الآن من هنا

الخط السفلي

يؤدي تطبيق الذكاء الاصطناعي التوليدي في حلول IAM إلى توفير إجراءات أمنية أكثر قوة لمقدمي IAM. يمكن أن تؤدي الاستفادة من قدرات Gen AI إلى تعزيز الأمان والكفاءة التشغيلية في أطر عمل IAM التنظيمية.

ومع ذلك، فإن اتباع نهج حكيم أمر ضروري. لا تزال إمكانية اتخاذ قرارات متحيزة من خوارزميات التعلم الآلي التي يتم تدريبها على مجموعات البيانات المتحيزة وقضايا الخصوصية مصدر قلق للكثيرين. وأيضًا، بدون إشراف بشري، قد تؤدي سياسات الوصول التي يقترحها الذكاء الاصطناعي التوليدي إلى سياسات تسمح بالوصول إلى مستخدمين غير مقصودين.


لذلك، بينما تسعى المؤسسات جاهدة لإطلاق الإمكانات الكاملة لجيل الذكاء الاصطناعي، فمن الضروري أيضًا الحفاظ على سلامة وموثوقية عمليات إدارة الوصول إلى الهوية الخاصة بها.




تعليقات



    حجم الخط
    +
    16
    -
    تباعد السطور
    +
    2
    -