ذكاء الإنسان تحت تهديد الذكاء الاصطناعي
تريند الخليج – متابعات
عندما سأل أحد كبار الباحثين في شركة جوجل برنامج الدردشة الآلية “لامدا” عن إذا ما كان “زومبي فلسفي” (يظهر تصرفات مثل البشر دون أن يكون له حياة داخلية أو وعي أو إحساس)، أجاب، “بالطبع لا”. لم يقتنع بلايس أجويرا أي أركاس، فسأل برنامج الدردشة المدعومة بالذكاء الاصطناعي كيف له أن يعرف أن ذلك صحيحا. أجاب “لامدا”: عليك فقط أن تأخذ بكلامي، لا يمكنك إثبات أنك لست زومبي فلسفي أيضا.
تصبح آلاتنا أذكى – وأكثر جرأة – بسرعة مذهلة ومقلقة. “لامدا” هو جيل جديد من نماذج اللغة أو الأساس الكبيرة، التي تستخدم تقنيات التعلم الآلي لتحديد أنماط الكلمات في مجموعات بيانات واسعة وتحاكيها آليا عند الطلب. تعمل هذه النماذج مثل وظائف الإكمال التلقائي السريع، لكن بلا تفضيلات فطرية أو مكتسبة، وبلا ذاكرة أو إحساس بالتاريخ أو الهوية. “لامدا، بمصطلح صريح (أو إنساني إذا أجمع الناس على ذلك)، كلام فارغ”، حسبما كتب أجويرا أي أركاس.
عندما أطلقت “أوبن إيه آي”، شركة الأبحاث في سان فرانسيسكو، أحد أول نماذج الأساس، الذي يدعى “جي بي تي-3″ في 2020، أذهل النموذج كثيرا من المستخدمين بقدرته على توليد كميات هائلة من النصوص المنطقية بسرعة استثنائية. منذ ذلك الحين، أصبحت مثل هذه النماذج أكبر وأقوى، متوسعة من النصوص حتى رموز الحاسوب والصور والفيديوهات. كما أنها تخرج من بيئات الأبحاث المحمية إلى براري العالم الحقيقي، وتستخدم بازدياد في مجال التسويق والتمويل والبحث العلمي والرعاية الصحية. السؤال المهم هو إلى أي مدى يجب التحكم بهذه الأدوات التكنولوجية؟، حيث يكمن الخطر في أن الآلات الأذكى ربما تجعل البشر أقل ذكاء.
كونل أولوكوتن، أستاذ في جامعة ستانفورد وشريك مؤسس لـ”سامبا نوفا سيستمز” وهي شركة ناشئة في وادي السيليكون تساعد العملاء على تفعيل الذكاء الاصطناعي، سلط الضوء على الاستخدامات الإيجابية التجارية لهذه التكنولوجيا. قال، “إن وتيرة الابتكار وحجم النماذج في ازدياد كبير. في الوقت الذي تظن فيه أننا وصلنا إلى حدودنا، يأتي الناس بحيل جديدة”.
لا تولد هذه النماذج النصوص والصور فقط، بل تفسرها أيضا، يمكن ذلك النظام نفسه من أن يتعلم في سياقات مختلفة ويتعامل مع مهام متعددة. مثلا، يعمل بنك أو تي بي في هنغاريا مع الحكومة و”سامبا نوفا” لتفعيل الخدمات التي تعمل بالذكاء الاصطناعي عبر أعماله. يهدف البنك إلى استخدام التكنولوجيا لإضافة الرد الآلي في مراكز اتصالاته، وتخصيص الخدمات لعملائه الأفراد البالغ عددهم 17 مليون، وتبسيط عملياته الداخلية عن طريق تحليل المستندات. قال بيتر تشاني، كبير المسؤولين الرقميين في البنك، “لا أحد يعلم حقا كيف ستكون الخدمات المصرفية بعد عشرة أعوام – أو كيف ستكون التكنولوجيا. لكنني متأكد 100 في المائة أن الذكاء الاصطناعي سيلعب دورا مهما”.
تقيد بعض الشركات التي طورت نماذج أساس قوية، مثل جوجل ومايكروسوفت وأوبن إيه آي، الوصول إلى هذه التكنولوجيا لمستخدمين معروفين. لكن شركات أخرى، مثل ميتا وإلوثر إيه آي، تشاركها مع قاعدة عملاء أوسع. هناك توتر بين السماح للخبراء الخارجيين في المساعدة على اكتشاف العيوب والتحيز، ومنع الاستخدام الخبيث من قبل عديمي الضمير.
قد تكون نماذج الأساس “مشوقة ورائعة” لكنها معرضة لإساءة الاستخدام، لأنها مصممة لتكون مراوغة” كما قالت كاريسا فيليز، أستاذة مشاركة في معهد جامعة أكسفورد لأخلاقيات الذكاء الاصطناعي. إذا دربت نماذج الأساس على مجموعات بيانات متحيزة تاريخيا فستنتج مخرجات ضارة. يمكنها تهديد الخصوصية عن طريق استخراج تفاصيل رقمية عن الأفراد واستخدام البرامج الآلية لإعادة تشكيل شخصيات على الإنترنت، كما يمكنها تقليل قيمة الحقيقة من خلال إغراق الإنترنت بالمعلومات المزيفة.
تشبه فيليز ذلك بالأنظمة المالية، “يمكننا الوثوق بالمال طالما لا يوجد كثير من التزوير، لكن إذا كان المال المزيف أكثر من الحقيقي فسينهار النظام. نحن نصنع أدوات وأنظمة لا نستطيع التحكم بها. ذلك يدعو إلى تنفيذ تجارب التحكم العشوائية لنماذج الأساس قبل إصدارها، تماما مثل الأدوية”.
حاول معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان إنشاء مجلس مراجعة خبراء لتحديد أعراف المجتمع ومشاركة أفضل الممارسات والاتفاق على قواعد الوصول الموحدة قبل إصدار نماذج الأساس. لا تتمحور الديمقراطية حول الشفافية والصراحة فقط، بل أيضا التصميم المؤسسي للحوكمة الجماعية. نحن، كما يقول روب ريتش من معهد ستانفورد، في سباق بين “الاضطراب والديمقراطية”.
حتى يكون هناك حوكمة جماعية فاعلة للتحكم باستخدام نماذج الأساس، فمن غير الواضح على الإطلاق أن الديمقراطية ستنتصر.