أخر الاخبار

الأمن السيبراني الأول في العالم & إرشادات الذكاء الاصطناعي

تشير المبادئ التوجيهية للأمن السيبراني والذكاء الاصطناعي التي تقودها المملكة المتحدة والولايات المتحدة والتي أقرتها 18 دولة إلى الالتزام بتأمين ابتكارات الذكاء الاصطناعي. ما رأي قادة الصناعة؟



في خطوة رائدة، أخذت المملكة المتحدة زمام المبادرة في تعزيز الأمن السيبراني لـ الذكاء الاصطناعي (AI) من خلال إصدار أول إرشادات شاملة في العالم لتطوير الذكاء الاصطناعي.


وقد حصلت هذه المبادئ التوجيهية، التي طورها المركز الوطني للأمن السيبراني (NCSC) بالتعاون مع وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية (CISA) وأكثر من 20 شريكًا دوليًا، على موافقة من 18 دولة، مما يؤكد الالتزام الجماعي بتأمين ابتكارات الذكاء الاصطناعي.


لقد استكشفنا الإرشادات بشكل متعمق هنا، بما في ذلك ميزاتها وتأثيراتها الرئيسية، والآن ننتقل إلى قاعات الأمن السيبراني والذكاء الاصطناعي في البحث لمعرفة رأي الخبراء.


وفي حديثه إلى موقع Techopedia، أشار نيك تشافيز، كبير مسؤولي المعلومات الميداني في DataStax، إلى أن إحدى النقاط المهمة هي النهج الحذر والتعاوني الذي تستخدمه المملكة المتحدة لتطوير المبادئ التوجيهية.


"أعتقد أنه من المهم إدراك الحذر والتعاون الذي تعامل به NCSC مع هذا المسعى. ومن خلال الحصول على تعليقات من المجتمع الدولي، بما في ذلك دول الناتو الأخرى، تمكن NCSC من صياغة توصيات كانت معقولة وقابلة للتنفيذ بسرعة وقوية.


وفي رد فعله، قال جيف شوارتزينتروبر، كبير علماء التعلم الآلي في eSentire وزميل أبحاث الصناعة في جامعة تورونتو متروبوليتان، لموقع Techopedia إن إصدار إرشادات الذكاء الاصطناعي هذه يعد خطوة في الاتجاه الصحيح لأنه سيساعد على توسيع التعاون الدولي وتسريع الالتزامات بشأن التنظيم. والاستخدام المناسب لتقنيات الذكاء الاصطناعي.


"أرى أن هذا خطوة إيجابية إلى الأمام فيما يتعلق بتوسيع التعاون الدولي والخطاب حول التنظيم والاستخدام المناسب لتقنيات الذكاء الاصطناعي. وعلى هذا النحو، فإن هذه الوثيقة الأولية تتحدث حقًا عن المشهد الجيوسياسي لتقدم الذكاء الاصطناعي وتأثيره على استخبارات الأمن القومي.


وفقًا لمدير الأبحاث التطبيقية ورئيس قسم الذكاء الاصطناعي والخصوصية في شركة TripleBlind، غريب غريبي، فإن غياب الصين قد يؤثر على قدرة المبادئ التوجيهية على التكيف. وهو يخشى أيضًا أن تفتقر المبادئ التوجيهية إلى مخطط تنفيذ فني، مما يترك مجالًا لمختلف التفسيرات والتطبيقات الخاطئة.

في كلماته:

"إن الطبيعة الواسعة للمبادئ التوجيهية، رغم أنها شاملة وتحدد نطاقًا واضحًا لأمن الذكاء الاصطناعي، قد تؤدي إلى تفسيرات وتطبيقات متنوعة عبر مختلف المنظمات والبلدان دون تفاصيل فنية أعمق. وهذا، إلى جانب غياب أصحاب المصلحة الرئيسيين في مجال الذكاء الاصطناعي، مثل الصين، قد يحد من قابلية التطبيق العالمي لهذه المبادئ التوجيهية وفعاليتها.

اقرأ ايضا:ظهور نماذج الذكاء الاصطناعي المتعددة الوسائط: التطبيقات والتحديات والآفاق المستقبلية من هنا

هل يمكن أن تكون هناك مخاطر على تطوير الذكاء الاصطناعي في المملكة المتحدة؟

في حين أن هذه الخطوة قد تضع حواجز حماية عبر النظام البيئي لتطوير الذكاء الاصطناعي، يعتقد بعض الخبراء أنها تحمل بعض الآثار على التقدم المستقبلي للذكاء الاصطناعي.


ومع كون المملكة المتحدة في طليعة هذه المبادئ التوجيهية الجديدة، هناك خوف من أنه لن يمر وقت طويل قبل أن نبدأ في رؤية لوائح أكثر صرامة ضد تطوير ونشر أنظمة الذكاء الاصطناعي في جميع أنحاء البلاد.

يقول جيسون تورنر، الرئيس التنفيذي وخبير الكم في شركة Entanglement Inc، إنه من الناحية المثالية، لا ينبغي أن يؤثر هذا التطور على المملكة المتحدة. ومع ذلك، أشار إلى أن:


"إذا تم تطوير المبادئ التوجيهية على أساس الخوف، فقد يكون ذلك مبالغًا فيه في بعض الأحيان. إذا كان هذا هو الحال، فمن المؤكد أن هذا قد يعيق الابتكار الذي تشتد الحاجة إليه في هذا القطاع ويؤثر على القدرة التنافسية العالمية للمملكة المتحدة.


يقول شوارتزنتروبر إنه على الرغم من أن القواعد التنظيمية قد تكون حتمية بعد إصدار هذه المبادئ التوجيهية، إلا أن الإفراط في التنظيم قد يعيق تطوير الذكاء الاصطناعي في المملكة المتحدة.


"هناك خطر حقيقي بالنظر إلى أن الإفراط في التنظيم يمكن أن يعطل أو يوقف تقدم الذكاء الاصطناعي بشكل كبير، خاصة داخل المؤسسة التجارية. ومع ذلك، فإنني أعتبر هذا الخطر ضئيلًا مقارنة بالجانب الصعودي المحتمل لمثل هذه الشراكات، حيث سيكون التعاون البحثي المتزايد وتبادل المعرفة والقيادة الفكرية بمثابة حافز يزيد من تقدم الذكاء الاصطناعي لجميع الدول المشاركة.


وفي حين أن الموقف المذكور أعلاه قد يحظى بشعبية كبيرة بين بعض الخبراء، إلا أن تشافيز له رأي مخالف. وهو يعتقد أن المبادئ التوجيهية لن تضر بأي شكل من الأشكال برغبة المملكة المتحدة في أن تكون من بين أفضل الدول في تطوير الذكاء الاصطناعي في العالم.


"هذه المبادئ التوجيهية لا تعرض المملكة المتحدة للخطر على الإطلاق. بل على العكس من ذلك، أصبح الأمن نقطة بيع بالغة الأهمية على نحو متزايد، ومن خلال إعطائه الأولوية، يمكن للمملكة المتحدة أن تجتذب الشراكات والتعاون بحثا عن حلول آمنة وموثوقة للذكاء الاصطناعي. يمكن للمبادئ التوجيهية أن تضع المملكة المتحدة كمركز للابتكار الآمن في مجال الذكاء الاصطناعي، حيث لا يشكل الأمن عائقًا بل ميزة تنافسية.


خلال حفل الإطلاق الذي أقيم في لندن، والذي حضره كبار شركاء الصناعة والحكومة والشركاء الدوليين، أكد الرئيس التنفيذي لشركة NCSC، ليندي كاميرون، على الحاجة إلى الأمن.


ودعت إلى "اتخاذ إجراءات دولية منسقة عبر الحكومات والوكالات" لمواكبة تطور الذكاء الاصطناعي.

"تمثل هذه المبادئ التوجيهية خطوة مهمة في تشكيل فهم عالمي مشترك حقًا للمخاطر السيبرانية واستراتيجيات التخفيف المتعلقة بالذكاء الاصطناعي لضمان أن الأمن ليس ملحقًا بالتنمية بل مطلبًا أساسيًا طوال الوقت."


"أنا فخور بأن المركز الوطني للأمن السيبراني يقود الجهود الحاسمة لرفع مستوى الأمن السيبراني للذكاء الاصطناعي: إن الفضاء السيبراني العالمي الأكثر أمانًا سيساعدنا جميعًا على تحقيق الفرص الرائعة التي توفرها هذه التكنولوجيا بأمان وثقة."


الخاتمه

لقد كانت هناك صرخة مدوية للحكومات والهيئات المهنية للنظر في سلامة تطوير الذكاء الاصطناعي. ويبدو أن هذه المبادئ التوجيهية هي الخطوة الأولى في هذا الاتجاه.


في حين أنها يمكن أن تكون نقطة مرجعية جيدة لتنفيذ أمن الذكاء الاصطناعي، يرى مارتن راند، المؤسس المشارك والرئيس التنفيذي لشركة Pactum AI، أن "الإصدارات المستقبلية من هذه المبادئ التوجيهية يمكن أن تفعل المزيد لمعالجة المشكلات المجردة والمعقدة الأخرى المرتبطة بالذكاء الاصطناعي، مثل الاستخدام الأخلاقي للذكاء الاصطناعي، والمعلومات المضللة، والتحيز في نماذج الذكاء الاصطناعي، وتأثيرها على الديمقراطية والأنظمة الاجتماعية.


تعليقات



    حجم الخط
    +
    16
    -
    تباعد السطور
    +
    2
    -