«أبو الإنترنت» يحذر: لا تستعجلوا الاستثمار في الذكاء الاصطناعي

حذّر (فينت سيرف) – المُلقَّب بـ «أبي الإنترنت» – مديري الشركات من التسرع في الاستثمار في تقنيات الذكاء الاصطناعي التخاطبي لمجرد أنها «رائعة حقًا»، وذلك وسط الموجة العارمة التي أحدثها روبوت الدردشة الذائع الصيت (شات جي بي تي) ChatGPT.

وقال (سيرف) أمام الحاضرين في مؤتمر (ماونتن فيو) Mountain View يوم الاثنين: «إننا نواجه هنا قضية أخلاقية آمل أن يأخذها بعضكم في الحسبان. فالجميع يتحدث عن (شات جي بي تي) أو نسخة منه من جوجل، وإننا نعلم أنه لا يعمل دائمًا بالطريقة التي نتوقعها منه».

ويأتي تحذير (سيرف) في حين تتصارع شركات التقنية الكبرى، مثل: جوجل، وميتا، ومايكروسوفت للحفاظ على قدرتها التنافسية في مجال الذكاء الاصطناعي التخاطبي مع الصعود السريع لتقنيةٍ لا تزال ترتكب الأخطاء على نحو ملحوظ.

وصرّح (جون هينيسي)، رئيس شركة ألفابت (الشركة الأم لجوجل) في وقت سابق من أمس الاثنين أن روبوتات الدردشة القائمة على الذكاء الاصطناعي لا تزال بعيدة عن كونها مفيدة على نطاق واسع، وأنها تعاني من المشكلات المتعلقة بعدم الدقة و«السُمِّيَّة» التي لا تزال بحاجة إلى حل قبل إطلاقها لعموم المستخدمين.

وشغل (سيرف) منصب نائب الرئيس و «كبير دعاة الإنترنت» لشركة جوجل منذ 2005. وهو معروف بأنه أحد «آباء الإنترنت» لأنه شارك في تصميم بعض الهياكل المستخدمة لبناء أساس الإنترنت.

موضوعات ذات صلة بما تقرأ الآن:

وحذّر (سيرف) من إغراء الاستثمار لمجرد أن التقنية «رائعة حقًا» مع أنها لا تعمل كما ينبغي طوال الوقت. كما حذّر من جشع الشركات قائلًا: «سيسعون إلى فعل ما يعود بالنفع عليهم وليس عليك». «لذا علينا أن نتذكر ذلك وأن نُفكّر مليًا في كيفية استخدامنا لهذه التقنية».



T2-M-II

T2-M-III

T2-M-IIII

m-MT-4

وقال (سيرف) إنه حاول أن يطلب من أحد أنظمة الذكاء الاصطناعي إرفاق رمز تعبيري في نهاية كل جملة، إلا أنه لم يفعل ذلك، ولمّا نُبِّه إلى الأمر اعتذر لكنه لم يغير سلوكه.

وقدّم (سيرف) مثالًا آخر طلب فيه من برنامج الدردشة الذكي تقديم سيرة ذاتية عن نفسه، فعاد الروبوت بسيرة ذاتية وكأنها حقيقة مثبتة، مع أن المعلومات الواردة في السيرة ليست دقيقة.

وقال (سيرف): «ومن الناحية الهندسية، أعتقد أنه يجب على المهندسين أمثالي أن يكونوا مسؤولين عن محاولة إيجاد طريقة لترويض بعض هذه التقنيات بحيث تقل احتمالية تسببها في الضرر”.

وأضاف: “وبطبيعة الحال يعتمد الأمر على التطبيق، فإن القصة الخيالية غير الجيدة أحد الأشياء المتوقعة من الروبوتات. ولكن إعطاء النصيحة لشخص ما قد يكون له عواقب طبية. إن معرفة كيفية تقليل احتمالية أسوأ الحالات أمر مهم للغاية».