الأخباربيئة وعلوممستجدات

العالم يستعد لدخول المجهول بسبب القدرات الهائلة لتكنولوجيا الذكاء الاصطناعي وخبراء يحذرون من مخاطر استعماله

الخط :
إستمع للمقال

أظهرت تكنولوجيا الذكاء الاصطناعي قدرة هائلة على تغيير الطريقة التي نعيش بها حياتنا، حيث أبدى عدد من الخبراء قلقهم من هذا التطور وانعكاساته على المجتمع، خاصة خلال الأشهر القليلة المقبلة، محذرين من استعمالات هذه التكنولوجيا، التي تعتبر سلاحا ذو حدين.

الحديث عن إنتاجات الذكاء الإصطناعي، بدأ خلال سنة 2019، حينما قدمت مجموعة بحثية غير ربحية تسمى OpenAI (شركة أوبن للذكاء الاصطناعي)، مشروعها المتعلق ببرنامج جي بي تي – 2 الذي يمكنه إنشاء فقرات من نص متماسك وإجراء فهم وتحليل أولي للقراءة دون تعليمات محددة، حيث قررت عدم جعل البرنامج متاحا بشكل كامل للجمهور، وذلك خشية استخدامه من قبل أشخاص لديهم نوايا شريرة، فينشأون كماً هائلاً من المعلومات المضللة والدعاية، وهو ما يفسر وصفها لهذا البرنامج في بيان صحفي أعلنت فيه عن قرارها، بأنه “خطير للغاية”.

بعد مرور ثلاث سنوات، زادت قدرات الذكاء الاصطناعي بشكل كبير، على عكس التوزيع المحدود الأخير، حيث أصبح العرض التالي (جي بي تي – 3) ، متاحاً بسهولة للعموم منذ شهر نونبر الماضي.

وأماطت شركة “أوبن أل” يوم الثلاثاء الماضي، اللثام عن أحدث نسخة من برنامجها جيبي تي – 4، والتي صرحت إنه يخضع لقيود صارمة لمنع استخدامه لغايات غير مناسبة، حيث سرعان ما حقق البرنامج نجاحا باهرا، ومن بين العملاء الأوائل للشركة نجد العملاق مايكروسوفت وميريل ينتش، إضافة إلى حكومة أيسلندا.

وكمثال على القدرات الرهيبة للذكاء الاصطناعي، واجهة Chatbot-GPT المستمدة من برنامج جي بي تي، وهي خدمة أطلقت آلاف المقالات الإخبارية ومنشورات مواقع التواصل الاجتماعي، ما جعل عددا من الصحفيين والخبراء يلمسون قدراتها والتي كانت نتائجها غالباً مذهلة. مثال آخر لهذه التقنية هو وقوف Chatbot-GPT على خشبة المسرح مخاطبا الجمهور بنفس اسلوب الممثل الكوميدي الراحل جورج كارلين حول فشل بنك وادي السيليكون، كما نظر في اللاهوت المسيحي وكتب الشعر وفسر النظرية الكوانيتة للطفل كما لو كان مغني الراب سنوب دوغ.

علاقة بالموضوع، نجحت برامج أخرى للذكاء الاصطناعي، مثل Dall-E ، في إنتاج لوحات مقنعة لدرجة أنها أثارت الجدل حول عرضها للبيع على مواقع الويب الفنية.

ولمناقشة قدرات برامج الذكاء الاصطناعي، اجتمع عدد من الخبراء والباحثين في مؤتمر South by  Southwest Interactive  المنعقد في منطقة أوستن بولاية تكساس الأمريكية هذا الأسبوع، حيث عبروا عن تحمسهم لمعاينة استعمالات هذه التكنولوجيا الحديثة، معبرين في نفس الوقت عن قلقهم منها.

في نفس السياق، أكد أحد الخبراء، أن الأشهر القليلة المقبلة، ستظهر العديد من المفاجآت للعامة، وهو ما جعل بعض الآخر يؤكد أن الاتجاه الذي تسير فيه التكنولوجيا يتوقف في النهاية إلى حد كبير على مسؤولية الشركات التي تطورها، فيما دعا البعض الآخر الحكومة والهيئات الفيدرالية والكونغرس إلى التحرك بسرعة لوضع حواجز حماية قانونية لتوجيه التطورات التكنولوجية ومنع إساءة استخدامها.

وأبدى عدد من الخبراء تخوفهم من التكنولوجيا الجديدة، بالنظر إلى عجز الحكومات عن ضبط ومراقبة شركات مواقع التواصل الاجتماعي أمثال فيسبوك وتويتر وغوغل وغيرها أمثلة غير مشجعة، وهو ما جعل ميلاني سوبين، المديرة الإدارية لمعهد فيوتشر توداي، تصرح بالقول “ما سمعته في الكثير من المحادثات هو القلق من عدم وجود أي ضوابط حماية”. “هناك شعور بضرورة القيام بشيء ما. وأعتقد تجربة الناس مع وسائل التواصل الاجتماعي مثال على المخاوف التي تدور في أذهان الناس عندما يرون مدى سرعة تطور الذكاء الاصطناعي”.

علاقة بالموضوع تقول الصحفية المختصة بالعلوم التقنية، كارا سويشر، “على الرغم من الأدلة الكثيرة على وجود مشاكل في فيسبوك ومواقع التواصل الاجتماعي الأخرى، فقد مرت 25 عاماً دون اتخاذ أي إجراء”.، مضيفة “كنا ننتظر سنّ تشريع ما من الكونغرس لحماية المستخدمين، لكنه أخل بمسؤولياته”.

وأكدت سويشر، إن الخطر يكمن في أن العديد من الشركات التي لعبت دوراً رئيسياً في وسائل التواصل الاجتماعي – فيسبوك وغوغل وأمازون وآبل ومايكروسوفت، أصبحت الآن رائدة في مجال الذكاء الاصطناعي.

وقالت سويشر أن التجربة أثبتت عجز الحكومات على تنظيم وسائل التواصل الاجتماعي بنجاح، حيث سيصعب عليها التحرك بسرعة لمعالجة المخاوف بشأن ما سمته بـ “سباق التسلح” في مجال الذكاء الاصطناعي.

وحذر الخبراء من خطر استعمال تقنية الذكاء الاصطناعي الجديدة على منصات التواصل الاجتماعي كفيسبوك ويوتيوب وتويتر، حيث بإمكانها تحويل هذه المواقع إلى بحر من المعلومات المضللة، بشكل يجعل من الصعب فصل منشورات البشر الحقيقيين عن الحسابات المزيفة التي قد تبدو منطقية تماماً لاعتمادها على تقنية الذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

عاجل
زر الذهاب إلى الأعلى