قاموس كامبريدج يتوج كلمة عام 2023 – ويشارك معناها المحدث

فريق التحرير

الكلمة هي “الهلوسة” ويتعلق التعريف الجديد بكيفية إنتاج الذكاء الاصطناعي لمعلومات كاذبة – ويأتي ذلك بعد زيادة الاهتمام لمدة عام بأدوات الذكاء الاصطناعي التوليدية مثل ChatGPT

كشف قاموس كامبريدج عن كلمة العام لعام 2023، ويقول إنها تأتي بتعريف جديد بفضل ظهور الذكاء الاصطناعي (AI).

الكلمة هي “الهلوسة” ويتعلق التعريف الجديد بكيفية إنتاج الذكاء الاصطناعي لمعلومات كاذبة. تبدو هلوسة الذكاء الاصطناعي، والمعروفة أيضًا باسم التخفي، أحيانًا ارتباكًا أو غير منطقية. ومع ذلك، يمكن أيضًا أن تبدو معقولة تمامًا، حتى لو كانت غير دقيقة من الناحية الواقعية أو غير منطقية في النهاية.

الفهم التقليدي لكلمة “الهلوسة” هو أن تبدو وكأنك ترى أو تسمع أو تشعر أو تشم شيئًا غير موجود، وعادةً ما يكون ذلك بسبب حالة صحية أو لأنك تناولت عقارًا.

لكن التعريف الإضافي الجديد الذي يتم إضافته إلى قاموس كامبريدج هو: “عندما يهذي الذكاء الاصطناعي (= نظام كمبيوتر يتمتع ببعض الصفات التي يتمتع بها الدماغ البشري، مثل القدرة على إنتاج اللغة بطريقة تبدو بشرية) فإنه ينتج معلومات كاذبة.”

ويأتي ذلك بعد زيادة الاهتمام على مدار عام كامل بأدوات الذكاء الاصطناعي التوليدية مثل ChatGPT، مع تحول انتباه الجمهور نحو قيود الذكاء الاصطناعي وما إذا كان من الممكن التغلب عليها.

أثبتت أدوات الذكاء الاصطناعي، وخاصة تلك التي تستخدم نماذج لغوية كبيرة، قدرتها على توليد نثر معقول، ولكنها غالبًا ما تفعل ذلك باستخدام “حقائق” كاذبة أو مضللة أو مختلقة. إنهم “يهلوسون” بطريقة واثقة ومعقولة في بعض الأحيان.

قال ويندالين نيكولز، مدير النشر في قاموس كامبريدج: “إن حقيقة أن الذكاء الاصطناعي يمكن أن “يهلوس” تذكرنا بأن البشر ما زالوا بحاجة إلى استخدام مهارات التفكير النقدي لديهم لاستخدام هذه الأدوات. إن الذكاء الاصطناعي رائع في معالجة كميات هائلة من البيانات لاستخراجها”. معلومات محددة وتوحيدها، ولكن كلما طلبت منهم أن يكونوا أكثر إبداعًا، كلما زاد احتمال ضلالهم.

“في أفضل حالاتها، لا يمكن أن تكون نماذج اللغات الكبيرة موثوقة إلا بقدر بيانات التدريب الخاصة بها. ويمكن القول إن الخبرة البشرية أكثر أهمية – ومطلوبة – من أي وقت مضى، لإنشاء معلومات موثوقة وحديثة يمكن تدريب حاملي ماجستير اللغة عليها. “

لقد كان لهلوسة الذكاء الاصطناعي بالفعل تأثيرات في العالم الحقيقي. استخدمت شركة محاماة أمريكية ChatGPT لإجراء أبحاث قانونية أدت إلى الاستشهاد بقضايا وهمية في المحكمة. وفي الفيديو الترويجي الخاص بشركة Google لبرنامج الدردشة الآلي Bard، ارتكبت أداة الذكاء الاصطناعي خطأً واقعيًا بشأن تلسكوب جيمس ويب الفضائي. ويوضح التعريف الجديد ميلا متزايدا إلى تجسيم تكنولوجيا الذكاء الاصطناعي، باستخدام استعارات شبيهة بالإنسان عندما نتحدث ونكتب ونفكر في الآلات.

وقال الدكتور هنري شيفلين، عالم أخلاقيات الذكاء الاصطناعي في جامعة كامبريدج: “إن الاستخدام الواسع النطاق لمصطلح “الهلوسة” للإشارة إلى الأخطاء التي ترتكبها أنظمة مثل ChatGPT يوفر لمحة رائعة عن كيفية تفكيرنا في الذكاء الاصطناعي وتجسيده”. لقد كانت معنا منذ فترة طويلة، بالطبع، سواء في شكل شائعات أو دعاية أو “أخبار مزيفة”.

“في حين يُنظر عادةً إلى هذه المنتجات على أنها منتجات بشرية، فإن كلمة “الهلوسة” هي فعل مثير للذكريات يشير ضمنًا إلى وجود وكيل يعاني من الانفصال عن الواقع. ويعكس هذا الاختيار اللغوي تحولًا دقيقًا وعميقًا في الإدراك: الذكاء الاصطناعي، وليس المستخدم، هو من هو ” هلوسة.

“على الرغم من أن هذا لا يشير إلى اعتقاد واسع النطاق في وعي الذكاء الاصطناعي، إلا أنه يؤكد استعدادنا لنسب سمات شبيهة بالبشر إلى الذكاء الاصطناعي. ومع تقدم هذا العقد، أتوقع أن تتوسع مفرداتنا النفسية بشكل أكبر لتشمل القدرات الغريبة للذكاءات الجديدة. نحن نخلق.”

شارك المقال
اترك تعليقك