مناطق غامضة في عمل الذكاء الاصطناعي عجز العلماء عن تفسيرها
مناطق غامضة في عمل الذكاء الاصطناعي عجز العلماء عن تفسيرها هو احد الموضوعات التى لاقت العديد من عمليات البحث فى الفترة الاخيرة ولذلك نقدم لكم اليوم من خلال منصة تريند الخليج موضوع اليوم نتمنى لكم قراءة مفيدة وممتعة.
تريند الخليج – خاص
يومًا بعد يوم يزداد اعتماد البشر على الذكاء الاصطناعي، ومع هذا الاعتماد المتزايد يستمر تطور أنظمة الذكاء الاصطناعي بسرعة حتى أن العلماء أصبحوا غير قادرين على تفسير أو شرح الطريقة التي يعمل بها.
ما هي نكهة الآيس كريم المفضلة لديك؟ قد تقول الفانيليا أو الشوكولاتة، وإذا سألت عن السبب، فمن المحتمل أن تقول لأن طعمه جيد، ولكن لماذا تصف طعمها بالجيد؟ ولماذا لا تزال ترغب في تجربة نكهات أخرى في بعض الأحيان؟ نادرًا ما نشكك في القرارات الأساسية التي نتخذها في حياتنا اليومية، ولكن إذا فعلنا ذلك، فقد ندرك أنه لا يمكننا تحديد الأسباب الدقيقة لتفضيلاتنا وعواطفنا ورغباتنا في أي لحظة.
بشكل مشابه، هناك مشكلة مماثلة في الذكاء الاصطناعي، فالأشخاص الذين يطورون الذكاء الاصطناعي يواجهون مشاكل متزايدة في شرح كيفية عمله وتحديد سبب إعطائه نتائج معينة قد تكون غير متوقعة أحيانًا.
غالبًا ما تبدو الشبكات العصبية العميقة (DNN-Deep neural networks) – والمكونة من طبقات متعددة من أنظمة معالجة البيانات التي قام العلماء بتغذيته بها لتقليد الشبكات العصبية لدماغ الإنسان، تبدو وكأنها تعكس ليس فقط الذكاء البشري ولكن أيضاً عدم القدرة على تفسير الكيفية التي يتم بها عمل دماغ الإنسان.
الصندوق الأسود.. الغامض!
معظم أنظمة الذكاء الاصطناعي تعمل بطريقة تسمى “الصندوق الأسود”، وهي أنظمة يتم التعرض لها فقط من حيث مدخلاتها ومخرجاتها، لكن لا يحاول العلماء فك شفرة هذا “الصندوق الأسود”، أو العمليات الغامضة التي يقوم بها النظام، طالما أنهم يتلقون المخرجات التي يبحثون عنها.
على سبيل المثال، إذا قدمت بيانات للذكاء الاصطناعي حول كل نكهة آيس كريم، وبيانات ديموغرافية حول العوامل الاقتصادية والاجتماعية ونمط الحياة لملايين الأشخاص، فمن المحتمل أن تخمن نكهة الآيس كريم المفضلة لديك أو أين تفضل تناولها وفي أي متجر للآيس كريم، حتى لو لم يكن مبرمجًا لهذا الغرض.
تشتهر هذه الأنواع من أنظمة الذكاء الاصطناعي بمشكلات معينة، لأن البيانات التي يتم تدريبها عليها غالبًا ما تكون متحيزة بطبيعتها، مما يحاكي التحيزات العرقية والجنسانية الموجودة داخل مجتمعنا، فمثلًا كثيرًا ما يتم تعرف الذكاء الاصطناعي بشكل خاطئ على الأشخاص السود بشكل غير متناسب من خلال تقنية التعرف على الوجه.
عاجزون عن الشرح!
ومع الوقت يصبح من الصعب إصلاح هذه الأنظمة جزئيًا لأن مطوريها غالبًا لا يستطيعون شرح كيفية عملها بشكل كامل، مما يجعل المسألة صعبة. ونظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر تعقيدًا وأصبح البشر أقل قدرة على فهمها، يحذر خبراء الذكاء الاصطناعي والباحثون المطورين من التراجع في هذا الأمر، والتركيز بشكل أكبر على كيفية وسبب إنتاج الذكاء الاصطناعي لنتائج معينة بدلاً من معرفة حقيقة أن النظام يمكن أن ينتجها بدقة وسرعة.
كتب رومان ف. يامبولسكي، أستاذ علوم الكمبيوتر بجامعة لويزفيل، في ورقته البحثية بعنوان “عدم قابلية التفسير وعدم فهم الذكاء الاصطناعي” يقول: “بالاضافة إلى ذلك، إذا اعتدنا على قبول إجابات الذكاء الاصطناعي دون تفسير، ومعاملته بشكل أساسي كنظام أوراكل، فلن نتمكن من معرفة ما إذا كان سيبدأ في تقديم إجابات خاطئة أو متلاعبة في المستقبل.” وفق ما نشر موقع “فايس”.
يذكر أنه تم استخدام أنظمة الذكاء الاصطناعي في السيارات ذاتية القيادة، وروبوتات المحادثة لخدمة العملاء، وتشخيص الأمراض، كما أن لديها القدرة على أداء بعض المهام بشكل أفضل من البشر.
على سبيل المثال، الآلة قادرة على تذكر تريليون عنصر، مثل الأرقام والحروف والكلمات، مقابل البشر، الذين يتذكرون سبعة في المتوسط في ذاكرتهم قصيرة المدى، كما أنها قادرة على معالجة المعلومات وحسابها بسرعة أكبر و معدل محسن من البشر، لكن مع تطور العمليات التي أصبحت نماذج الذكاء الاصطناعي قادرة عليها، تراجعت مع الوقت قدرة مطوريها على شرح الكيفية التي تعمل بها.
وقالت إميلي إم بندر، أستاذة اللغويات في جامعة واشنطن في تصريحات صحفية: “إذا لم يفهم قادة الأعمال وعلماء البيانات لماذا وكيف يحسب الذكاء الاصطناعي المخرجات التي يقوم بها، فإن ذلك يخلق مخاطر محتملة، فيما قال بينا اماناث، المدير التنفيذي لمعهد ديلويت للذكاء الاصطناعي، إن الافتقار إلى القابلية لتفسير كيفية عمل الذكاء الاصطناعي يحد من القيمة المحتملة له”، بحسب ما نشر موقع “ماذربورد” التقني.
وتتمثل المخاطر في أن نظام الذكاء الاطناعي قد يتخذ قرارات باستخدام قيم قد لا نتفق معها ، مثل القرارات المتحيزة (كالعنصرية أو التمييز الجنسي). كما أن هناك خطر آخر يتمثل في أن النظام قد يتخذ قرارًا سيئًا للغاية ، لكن لا يمكننا التدخل لأننا لا نفهم أسبابه ، بحسب ما قال جيف كلون ، الأستاذ المساعد في علوم الكمبيوتر بجامعة كولومبيا البريطانية.
كانت هذه مقالة اليوم وتناولنا من خلالها اهم التفاصيل الخاصة بموضوع مناطق غامضة في عمل الذكاء الاصطناعي عجز العلماء عن تفسيرها .