5 أفكار رئيسية في فقاعة الضجة الكبرى للذكاء الاصطناعي

5 أفكار رئيسية في فقاعة الضجة الكبرى للذكاء الاصطناعي

يشكل كتاب «خدعة الذكاء الاصطناعي The AI Con» محاولة لاستكشاف الضجة المثارة حول تقنيات الذكاء الاصطناعي، والمصالح التي تخدمها، والأضرار التي تقع تحت هذه المظلة. ومع كل ذلك، تبقى هناك خيارات متاحة أمام المجتمع لمقاومة هذه الضجة، وما زال هناك أمل في أن نتحد معاً لمواجهة تغوّل شركات التكنولوجيا، ومنعها من رهن مستقبل البشرية.

«خدعة الذكاء الاصطناعي»

وفيما يلي تتشارك المؤلفتان إميلي بيندر (أستاذة في علم اللغة، مديرة برنامج الماجستير في اللغويات الحاسوبية بجامعة واشنطن)، وأليكس هنا (مديرة الأبحاث في معهد البحوث الموزعة للذكاء الاصطناعي، ومحاضرة في كلية المعلومات بجامعة كاليفورنيا في بيركلي) مع القراء بخمسة أفكار رئيسية من كتابهما الجديد «خدعة الذكاء الاصطناعي: كيف نحارب تضليل شركات التكنولوجيا الكبرى ونصنع المستقبل الذي نريده؟ ?The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want».

01-> التكنولوجيا التي تحرِّك موجة الضجة الحالية حول الذكاء الاصطناعي ما هي إلا خدعة استعراضية: تبدو روبوتات الدردشة مثل «تشات جي بي تي»، تكنولوجيا مذهلة، لكن ليس بالضرورة بالطريقة التي نتصورها.

في الواقع، لا تستطيع هذه الأنظمة الاضطلاع بمجموعة الوظائف التي تزعم أنها قادرة عليها، وإنما جرى تصميمها لتبهرنا. ويكمن جوهر الخدعة في الطريقة التي يستخدم بها البشر اللغة. قد نعتقد أن فهم الكلمات مجرد فك رموز بسيطة، لكن الحقيقة أن العملية أشد تعقيداً بكثير، وتحمل في جوهرها طابعاً اجتماعياً عميقاً.

نحن نفسر اللغة عبر الاعتماد على كل ما نعرفه (أو نفترضه) عن الشخص الذي نطق الكلمات، وعلى الأرضية المشتركة بيننا وبينه، ثم نبدأ في استخلاص نيّات المتكلم. ونتولى إنجاز هذا الأمر على نحو تلقائي. لذا، عندما نصادف نصاً أنتجته أنظمة ذكية، فإننا نتعامل معه كما لو أن هناك عقلاً بشرياً خلَّفه، رغم عدم وجود عقل هناك أصلاً.

بمعنى آخر، فإن المهارات اللغوية والاجتماعية التي نُسقطها على النص المُنتَج من الذكاء الاصطناعي، تجعل من السهل على مروِّجي هذه التقنيات خداعنا لنعتقد أن برامج الدردشة كيانات عاقلة.

02- > الذكاء الاصطناعي لن يستحوذ على وظيفتك، لكنه سيجعلها أسوأ بكثير: في الغالب، تسعى تقنيات الذكاء الاصطناعي إلى إخراج الإنسان من معادلة العمل.

وهنا يبرز إضراب نقابة «كتّاب أميركا» عام 2023 مثالاً على ذلك، مع إعلان كتّاب السيناريو في هوليوود الإضراب عن العمل للمطالبة بعدة أمور، منها رفع أجورهم من شركات البث. إلا أن خلف هذه المطالب، كان هناك كذلك قلق عميق إزاء الاستعانة بالذكاء الاصطناعي في كتابة السيناريوهات، مما يهدد جودة العمل، ويجعل بيئة العمل أكثر ضغطاً وأقل احتراماً للمهارات البشرية.

كما أراد الكتّاب التأكد من أنهم لن يُجبروا على لعب دور مربّي الأطفال لأنظمة الدردشة الإلكترونية، التي يُكلفها المنتجون بكتابة سيناريوهات مبنية على أفكار ساذجة أو غير ناضجة مستوحاة من صناع السينما والتلفزيون.

في هذا الصدد، أشار جون لوبيز، عضو فريق العمل المعنيّ بالذكاء الاصطناعي داخل «نقابة الكتّاب»، إلى إمكانية حصول الكتّاب على أجر التعديلات فقط، عند تعاملهم مع محتوى ناتج عن الذكاء الاصطناعي، وهو أجر أقل بكثير من أجر كتابة سيناريو أصلي.

لقد رأينا بالفعل كيف أدّت أدوات توليد الصور والنصوص، إلى تقليص كبير في فرص العمل أمام مصممي الغرافيك، وفناني ألعاب الفيديو، والصحافيين. ولا يرجع ذلك إلى قدرة هذه الأدوات فعلاً على أداء مهام هؤلاء المحترفين بجودة عالية، بل لأنها تُنتج نتائج مقبولة بدرجة كافية لتقليص المهن، وإعادة توظيف العاملين مقابل أجور زهيدة، فقط ليقوموا بإصلاح مخرجات الذكاء الاصطناعي الرديئة.

وفوق ذلك، كثيراً ما تكون الأنظمة التي تُوصف بأنها «ذكاء اصطناعي» مجرد واجهات براقة تُخفي وراءها الاستراتيجية القديمة التي تعتمدها الشركات الكبرى، والمتمثلة في نقل وتحويل العمل إلى الأيدي العاملة في دول الجنوب العالمي.

وهؤلاء العمال -الذين غالباً ما يجري تجاهلهم- هم من يتولون مراجعة المحتوى عبر الإنترنت، واختبار أنظمة الدردشة للكشف عن المخرجات السامة، بل يقودون أحياناً المركبات التي يجري التسويق لها بوصفها ذاتية القيادة، عن بُعد.

ومع ذلك، يبقى هناك جانب مشرق يتمثل في نجاح بعض هؤلاء العمال من مقاومة هذا الاستغلال، سواء من خلال النشاط النقابي، أو من خلال ما يشبه التخريب الصناعي، مثل أدوات «نايتشيد» و«غليز» التي يستخدمها الفنانون لحماية أعمالهم من أن يجري استغلالها في تدريب نماذج توليد الصور، أو عبر التوعية السياسية.

إبعاد الناس عن تقديم الخدمات الاجتماعية

03- > الهدف من خدعة الذكاء الاصطناعي هو فصل الناس عن الخدمات الاجتماعية: نظراً لأننا نستخدم اللغة في كل مجالات النشاط البشري تقريباً، ولأن النص الاصطناعي الناتج عن هذه الأنظمة يمكن تدريبه على محاكاة اللغة، قد يبدو الأمر كأننا على وشك الحصول على تكنولوجيا قادرة على الاضطلاع بالتشخيص الطبي، وتقديم دروس تعليمية شخصية، واتخاذ قرارات حكيمة في توزيع الخدمات الحكومية، وتقديم استشارات قانونية، وغير ذلك -وكل ذلك مقابل تكلفة الكهرباء فقط (إضافة إلى ما تقرره الشركات المطورة من رسوم)… إلا أنه في كل هذه الحالات، ما يهم ليس مجرد الكلمات، بل التفكير الحقيقي وراءها، والعلاقات الإنسانية التي تساعدنا هذه الكلمات على بنائها والحفاظ عليها.

في الواقع، فإن أنظمة الذكاء الاصطناعي تخدم فقط أولئك الذين يريدون تحويل التمويل بعيداً عن الخدمات الاجتماعية، وتبرير سياسات التقشف. وفي الوقت نفسه، فإن أصحاب النفوذ سيحرصون على تلقي الخدمات من بشر حقيقيين، بينما يُفرض على باقي الناس نسخ رديئة من هذه الخدمات عبر أنظمة ذكية محدودة.

جدير بالذكر في هذا الصدد أن رئيس قسم الذكاء الاصطناعي الصحي في شركة «غوغل»، غريغ كورادو، صرّح بأنه لا يريد لنظام «ميد-بالم» Med-PaLM system التابع للشركة أن يكون جزءاً من رحلة الرعاية الصحية لعائلته. ورغم ذلك، فإن هذا لم يمنعه من التفاخر بأن النظام نجح في اجتياز اختبار ترخيص طبي -وهو في الحقيقة لم يفعل. والأهم من ذلك أن تصميم أنظمة تجتاز اختبارات متعددة حول المواقف الطبية، ليس وسيلة فعالة لبناء تكنولوجيا طبية مفيدة.

في هذه المجالات، تبدو الضجة حول الذكاء الاصطناعي أقرب إلى كونها ادعاءات زائفة عن حلول تكنولوجية لمشكلات اجتماعية، تستند -في أفضل الأحوال- إلى تقييمات مشكوك فيها ولا أساس لها من الصحة للأنظمة التي يجري بيعها.

04- > الذكاء الاصطناعي لن يقتلنا جميعاً، لكن التغييرات المناخية قد تفعل: في وقتٍ من الأوقات في «وادي السيليكون» وواشنطن العاصمة، دار تساؤل غريب، لكنه خطير، في أوساط العاملين في مجال التكنولوجيا أو السياسات التقنية: «ما احتمال الهلاك؟»، والمقصود به تقدير احتمالية أن يؤدي الذكاء الاصطناعي إلى القضاء على البشرية جمعاء؟

ويقوم هذا النوع من التفكير الكارثي على فكرة تطوير ذكاء عام اصطناعي -أي نظام يمكنه أداء مجموعة واسعة من المهام بقدرة تساوي أو تتفوق على قدرة الإنسان.

الحقيقة أن مفهوم «الذكاء العام الاصطناعي» مبهم وغير محدَّد بدقة، ومع ذلك فإن فكرة الهلاك تحظى بشعبية لدى بعض التقنيين وصناع السياسات. ويرتكز هذا التوجّه على آيديولوجيات مثيرة للقلق، مثل «الإيثار الفعّال effective altruism»، و«الاهتمام بالمستقبل البعيد longtermism»، و«العقلانية rationalism»، وهي كلها تيارات تستند إلى فلسفة النفعية، لكن تأخذها إلى أقصى حدودها، إذ تدعو إلى تقليل أهمية الأذى الحالي بحجة إنقاذ مليارات البشر الذين قد يعيشون في مستقبل غير محدد. وتنبع هذه الآيديولوجيات من أفكار انتقائية وتمييزية في جوهرها ونتائجها.

في الوقت ذاته، نحن على وشك الفشل في تحقيق هدف «اتفاقية باريس»، المتمثل في الحد من ارتفاع درجة حرارة الأرض إلى أقل من درجتين مئويتين فوق مستويات ما قبل الثورة الصناعية -والذكاء الاصطناعي يفاقم المشكلة.

تولِّد مراكز البيانات التي تستضيف هذه الأنظمة كميات هائلة من انبعاثات الكربون، والمكونات الإلكترونية المستخدمة في صناعتها تُسرّب مواد كيميائية سامة تدوم إلى الأبد في التربة، والمولدات الاحتياطية التي تُستخدم لدعمها تسهم في زيادة أمراض الجهاز التنفسي، خصوصاً داخل المناطق الأكثر فقراً في الولايات المتحدة وخارجها. وبالتالي، الروبوتات لن تسيطر على العالم، لكن تصنيعها قد يُفاقم أزمة المناخ بشكل خطير.

05- إجبار الإنسان على التنازل عن اختياراته

5. لا شيء من هذا محتوم: أولئك الذين يبيعون أنظمة الذكاء الاصطناعي ويثيرون الضجة حولها يريدون منَّا أن نتنازل طواعيةً عن قدرتنا على الاختيار. يُقال لنا إن الذكاء الاصطناعي -أو حتى الذكاء العام الاصطناعي- أمر لا مفر منه، أو على الأقل إن أدوات مثل «تشات جي بي تي» أصبحت واقعاً دائماً، لكن الحقيقة أنْ لا شيء من هذا محتوم. الحقيقة أننا نملك القدرة على العمل، سواء بشكل جماعي أو فردي.

على المستوى الجماعي، يمكننا الدفع نحو إقرار قوانين تنظم استخدام تقنيات الذكاء الاصطناعي وتحمي العمال من أن تُستخدم هذه الأدوات ضدهم. ويمكننا المطالبة بعقود عمل تضمن بقاء السيطرة بأيدي البشر.

وعلى المستوى الفردي، يمكننا ببساطة أن نرفض استخدام أنظمة الذكاء الاصطناعي. يمكننا أن نكون مستهلكين ناقدين لهذه الأتمتة، نتفحص ما الذي تجري أتمتته، وكيف يجري تقييمه، ولماذا.

كما يمكننا أن نكون ناقدين للإعلام التقني، فنبحث عن الصحافة التي تحاسب أصحاب القوة وتكشف عن حقائق ما يجري.

وأخيراً، يمكننا -بل يجب علينا- أن نسخر من هذه الأنظمة باعتبار ذلك وسيلة للمقاومة، بأن نُظهر بشكل مرح وساخر مدى رداءة إنتاج هذه الآلات الصناعية.

*مجلة «فاست كومباني»

خدمات «تريبيون ميديا»