أخر الاخبار

يعتقد مهندسو الذكاء الاصطناعي أن هناك فرصة بنسبة 40% لسيطرة الذكاء الاصطناعي على الناس

 يعتقد معظم مهندسي الذكاء الاصطناعي أن هناك احتمالًا أقل من الصفر بأن يدمر الذكاء الاصطناعي العالم، مما أدى إلى نقاشات بين المتفائلين والمتشائمين حول أسباب "الموت" - "احتمال الهلاك".



الروبوت الذي يقوم بمسح العالم

في العام الذي تلا إطلاق روبوت الدردشة ChatGPT الخاص بشركة OpenAI ، خطى الذكاء الاصطناعي (AI) خطوات واسعة نحو المرحلة التالية - الذكاء العام الاصطناعي (AGI)، حيث تُظهر أنظمة الذكاء الاصطناعي قدرات معرفية شبيهة بالقدرات البشرية.

وفي حين أن هذا يفتح فرصا جديدة للتطور التكنولوجي، فإنه يشكل أيضا مخاطر على البشر، بدءا من التحيز الخوارزمي إلى إمكانية الدمار الوجودي.

لقد تم تضخيم مسألة سلامة الذكاء الاصطناعي منذ الإقالة المفاجئة وإعادة تعيين الرئيس التنفيذي لشركة OpenAI ، سام ألتمان، الأمر الذي أثار تساؤلات حول الوتيرة السريعة لتطوير الذكاء الاصطناعي في الشركة وما إذا كانت تعمل مع وجود ضمانات كافية.


في 18 ديسمبر، أصدرت OpenAI إطار عمل أولي للتأهب للذكاء الاصطناعي ، ينص على ما يلي:

"لقد كانت دراسة مخاطر الذكاء الاصطناعي الحدودية أقل بكثير مما هو ممكن وأين يجب أن نكون. ولمعالجة هذه الفجوة وتنظيم تفكيرنا في مجال السلامة، فإننا نعتمد النسخة الأولية من إطار الاستعداد الخاص بنا.

"إنه يصف عمليات OpenAI لتتبع وتقييم والتنبؤ والحماية من المخاطر الكارثية التي تشكلها النماذج المتزايدة القوة."

وجدت دراسة استقصائية حديثة لمهندسي الذكاء الاصطناعي أجرتها شركة الاستثمار التكنولوجي في المراحل المبكرة Amplify Partners أن مهندس الذكاء الاصطناعي العادي يعتقد أن هناك فرصة بنسبة 40٪ تقريبًا أن يتمكن الذكاء الاصطناعي من تدمير العالم 

تمت مناقشة احتمالية الهلاك على نطاق واسع في الصناعة بأن مصطلح p(doom)، الذي يعني "احتمالية الهلاك"، قد انتقل إلى ما هو أبعد من نكات لوحة الرسائل ليصبح مقياسًا لاحتمالات أن يتسبب الذكاء الاصطناعي في سيناريو يوم القيامة. كلما ارتفع رقم (الموت) على مقياس من 0 إلى 100، زاد احتمال اعتقاد الخبير بأن الذكاء الاصطناعي سيقتلنا جميعًا.


"لا يوجد إجماع"، حسبما ذكرت شركة Amplify في تحليلها لنتائج الاستطلاع.

"لكن أقل من 1% يعتقدون أن هناك فرصة بنسبة 100%؛ 12% يعتقدون أنه لا توجد فرصة. وفي الوقت نفسه، يعتقد غالبية الأشخاص أن p(doom) < 50%، ويعتقد معظمهم أيضًا أن p(doom) > 1%.

"لاحظ أننا لم نحدد P (الموت) أو الأفق الزمني في الاستطلاع للمشاركين."

الرسم البياني: خطر قيام الذكاء الاصطناعي بإنهاء العالم

الرسم البياني: خطر قيام الذكاء الاصطناعي بإنهاء العالم. المصدر: حالة هندسة الذكاء الاصطناعي 2023

ومن غير المستغرب أن يرى فريق شركة Conjecture الناشئة في المملكة المتحدة، والتي تركز على سلامة الذكاء الاصطناعي، احتمالًا أكبر للهلاك.


قدر المشاركون في استطلاع داخلي أن هناك فرصة بنسبة 70% لانقراض الإنسان بسبب خروج الذكاء الاصطناعي المتقدم عن نطاق السيطرة، وفرصة بنسبة 80% لانقراض الإنسان بسبب الذكاء الاصطناعي المتقدم بشكل عام، بسبب فقدان السيطرة ومخاطر سوء الاستخدام.

الاحتمالية المقدرة لانقراض الإنسان بواسطة الذكاء الاصطناعي. المصدر: منتدى الانحياز

ما هي المخاطر المحتملة التي يشكلها الذكاء الاصطناعي العام، وكيف ينظر خبراء الذكاء الاصطناعي إلى تلك المخاطر؟

التهديدات الوجودية للذكاء الاصطناعي

وقد يؤدي انتشار أنظمة الذكاء الاصطناعي إلى التلاعب الاجتماعي الذي يزيد من خطر انتشار الشمولية على نطاق واسع، والهجمات السيبرانية التي تخلق عدم الاستقرار الجيوسياسي، ومسببات الأمراض المعززة هندسيا للحرب البيولوجية.

علاوة على ذلك، يمكن أن يؤدي ظهور الذكاء الاصطناعي العام إلى خلق الذكاء الفائق الذي يمكن أن يتطور خارج نطاق سيطرة الإنسان.


وكما يشرح نيك بوستروم، الفيلسوف ومؤسس معهد مستقبل الإنسانية في جامعة أكسفورد، في تجربة "تعظيم مشبك الورق"، فإن "عامل فائق الذكاء أراد زيادة عدد دبابيس الورق الموجودة في الوجود إلى الحد الأقصى، وكان ذلك قوياً بما يكفي ل ينفذ ما يريده… قد يرغب بعد ذلك في القضاء على البشر لمنعنا من إيقاف تشغيله (نظرًا لأن ذلك من شأنه أن يقلل من عدد مشابك الورق التي يتم تصنيعها). وقد ترغب أيضًا في استخدام الذرات الموجودة في أجسامنا لبناء المزيد من دبابيس الورق.


من المرجح أن يتوقع نظام الذكاء الفائق أن البشر قد يرغبون في السيطرة، وسيقوم بإنشاء ضمانات لمنع الانطفاء.

وأضاف بوستروم:

"من الجدير بالذكر أنه حتى الأنظمة التي ليس لديها إرادة مستقلة ولا قدرة على التخطيط قد يكون من الصعب علينا إيقافها. أين هو مفتاح إيقاف الإنترنت بالكامل؟

إن الجدل الدائر حول احتمالية الهلاك يجد مطوري الذكاء الاصطناعي الرائدين على خلاف في وجهات نظرهم، حيث يقاوم المتفائلون "المهزومين".

اقرأ ايضا:بيل جيتس: كيف سيغير الذكاء الاصطناعي عالم الطب من هنا

يعطي عالم الكمبيوتر النظري سكوت آرونسون احتمالية منخفضة للسيناريو الشبيه بمشبك الورق واحتمال أكبر لحدوث كارثة وجودية تتضمن الذكاء الاصطناعي بطريقة ما، لكنه يجادل في النهاية بأن القيام بتنبؤ ثابت سيتطلب مناقشة حول ما سيعنيه ذلك بالنسبة للذكاء الاصطناعي. للعب دور حاسم في التسبب في كارثة وجودية.

وعلى الطرف الآخر من المقياس، يرى الباحث في مجال الذكاء الاصطناعي إليعازر يودكوفسكي أنه يجب إيقاف تطوير الذكاء الاصطناعي؛ وإلا فإن "الجميع سيموت".


قال بول كريستيانو، الذي يدير مركز أبحاث المحاذاة والذي ترأس سابقًا فريق محاذاة نماذج اللغة في OpenAI، في وقت سابق من هذا العام إنه كان يناقش يودكوفسكي ذهابًا وإيابًا على مدار الـ 12 عامًا الماضية حول وتيرة تطوير الذكاء الاصطناعي العام.


"إن الطريقة الأكثر احتمالاً لموتنا ليست أن يأتي الذكاء الاصطناعي فجأة ويقتلنا، بل يعني أننا نشرنا الذكاء الاصطناعي في كل مكان. وإذا كانوا يحاولون قتلنا لسبب ما، فسيقتلوننا بالتأكيد.


يقدر كريستيانو احتمالًا بنسبة 46% بأن البشرية سوف "تفسد مستقبلنا بشكل لا رجعة فيه" خلال عقد من بناء أنظمة ذكاء اصطناعي قوية، واحتمال 22% لاستيلاء الذكاء الاصطناعي، واحتمال انقراض إضافي بنسبة 9%.


وتماشياً مع وجهة نظر آرونسون بأن البشر يمكن أن يتسببوا في الدمار الذي يشمل الذكاء الاصطناعي بشكل غير مباشر، يقدر كريستيانو "احتمال العبث به بطريقة أخرى خلال فترة التغير التكنولوجي المتسارع" بنسبة 15%.


إذا كنت تريد رؤية المزيد من الآراء حول المخاطر، يعرض هذا الرسم البياني المفيد التقديرات الفردية والجماعية لاحتمال انقراض الذكاء الاصطناعي:

هل ستأتي ضمانات الذكاء الاصطناعي قريبًا بما فيه الكفاية؟

ويشير بعض مهندسي الذكاء الاصطناعي إلى أن البشر يتحكمون في تطوير هذه الأنظمة، لذلك لم نفقد كل شيء بعد عندما يتعلق الأمر بوضع الضمانات. ومع ذلك، فإن وتيرة النمو تتحدى تلك السيطرة.


"إذا تابعت فقط اتجاه التقدم الذي شهدناه في السنوات القليلة الماضية وتساءلت... هل هناك فرصة يمكننا تحقيقها في العديد من المجالات أو القدرات المماثلة أو الأفضل من البشر؟ قال يوشوا بنجيو، خبير الذكاء الاصطناعي، في تدوينة صوتية حديثة لـ FT: "يعتقد الكثير من الأشخاص في مجال الذكاء الاصطناعي أن هذا محتمل جدًا، دعنا نقول، في العقد المقبل" .

"إذا حدث ذلك في غضون العقد المقبل أو ما هو أسوأ، في غضون السنوات القليلة المقبلة، لا أعتقد (وكثيرون آخرون لا يعتقدون) أن المجتمع منظم، وعلى استعداد للتعامل مع القوة التي سيطلقها هذا العنان والاضطرابات يمكن أن يخلق سوء الاستخدام الذي يمكن أن يحدث.


"أو ما هو أسوأ من ذلك، ما بدأت أفكر فيه أكثر هذا العام هو إمكانية فقدان السيطرة على هذه الأنظمة. هناك بالفعل الكثير من الأدلة التي تشير إلى أنهم لا يتصرفون بالطريقة التي نريدهم أن يتصرفوا بها”.


وكنقطة معارضة لهذا الرأي، فإن يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، متفائل ويتوقع أن يكون ظهور الذكاء الاصطناعي الخارق تقدميًا، مع أنظمة ذكية مثل "الحيوانات الصغيرة" وحواجز حماية تضمن بقاء هذه الأنظمة آمنة مع توسعها. أعلى. وبينما ستصبح الأنظمة في مرحلة ما أكثر ذكاءً من البشر، فإنها لن تكون بالضرورة واعية وستظل تحت السيطرة.

الخاتمه

سيستمر مهندسو وباحثو الذكاء الاصطناعي في مناقشة قضايا السلامة المختلفة التي يثيرها الذكاء الاصطناعي مع التطور السريع للنماذج مفتوحة المصدر والخاصة.


إن إدراك العديد من المطورين لإمكانية تقدم الذكاء الاصطناعي خارج نطاق السيطرة البشرية لإحداث الدمار قد يساعد في ضمان تنفيذ الضمانات الكافية.


ومع ذلك، فإن مستقبل أنظمة الذكاء الاصطناعي ومسؤوليتها عن تطور الأحداث سيظل غير مؤكد.

تعليقات



    حجم الخط
    +
    16
    -
    تباعد السطور
    +
    2
    -