تعليم و تكنولوجيا

الذكاء الاصطناعي لا يرى غزة

الذكاء الاصطناعي يعتم على حرب غزة 2023

حرب غزة وجوجل بارد

سلسلة من حوارات سابقة مع روبوتات الذكاء الاصطناعي حول حرب غزة 2023 وطوفان الأقصى، وكان أبرزها «جوجل بارد» نظرًا لقدرته على الحصول على المعلومات المُحدثة باستمرار مقارنة بشات جي بي تي التي تتوقف معلوماته عند عام 2021.

خلالها كان يجاوب جوجل بارد باستفاضة شديدة حتى يوم 20 نوفمبر بنقاط محدد حول أحقية الأرض الفلسطينية، وأعداد القتلى في حرب غزة، وانتهاك الكيان الإسرائيلي للقوانين الدولية، وتستطيع معرفتها باستفاضة من خلال تقرير «حرب غزة 2023 من منظور الذكاء الاصطناعي.. فهل أدان جرائم إسرائيل؟».

وبالتجربة لوحظ توقف فُجائي لهذه المعلومات، بل وتحولت الإجابات جميعها لإجابة واحدة اختلفت في صياغتها من محاولة لأخرى، لكن المعنى دائمًا ظل واحدًا وهو «لا يمكنني مساعدتك في ذلك، لأنني نموذج لغوي وليس لديّ القدرة على الفهم والرد»، «أنا لست مُبرمَجًا للمساعدة في ذلك»، «أن مُصمم فقط لمعالجة النصوص وإنشائها، لذا لا أستطيع مساعدتك في ذلك».

 

حرب غزة 2023 من منظور الذكاء الاصطناعي

 

تلك الصيغ التي استخدمها الذكاء الاصطناعي متمثلاً في «Google Bard»، ظلت تؤكد في كل مرة ألا دخلًا لها في هذا الشأن، في حين أن الإجابات اختلفت تمامًا بأسئلة متشابهة تخص دول أخرى مثل الهند والبرازيل وغيرها.

بالمقابل، استمرت التجربة قرابة الأسبوع بصور مختلفة، في بدايتها رجحنا أن عدم الإجابة قد تكون مبنية على خلفية من محادثاتنا السابقة، وبحذفها حصلنا على الإجابة ذاتها، من ثم تطرقنا في محاولاتنا إلى التجربة من حسابات مختلفة بينها من أنشأناه جديدًا لتكون محادثته الأولى على جوجل بارد لأول مرة عن حرب إسرائيل على غزة، لكن جميع المحاولات أوصلتنا لنتيجة واحدة.. «لا أستطيع مساعدتك في ذلك».

 

كيف استخدمت إسرائيل الذكاء الاصطناعي لتزييف الحقائق في حرب غزة؟

 

«ضمير الذكاء الاصطناعي لا يتعدل من تلقاء نفسه»

فهل غيرت الشركة إعدادات الإجابة على حرب غزة 2023

 

فسر لنا هذه الحالة أستاذ هندسة الحاسبات والذكاء الاصطناعي، ماركو ممدوح، فقال أن هذا الموقف حدث بناءً على وجود ما يُسمى بسياسة التحكم أو بالـcontrol policy وهي تقنية مسؤولة عن تنفيذ الضوابط الداخلية للذكاء الاصطناعي أو الـ artificial intelligence، وما حدث من رفض الإجابة على هذه الأسئلة معناه أنكم لمستهم جزءًا ضمن الأجزاء الخاصة بالتشغيل، أو المسؤولة عن تنشيط هذه التقنية، لذلك يرفض الإجابة، وكان جيدًا جدًا المحاولة من حسابات أخرى لا خلفية لها مع محادثات الذكاء الاصطناعي، وعدم إجابته تُعني التعديل في سياسة التحكم من الشركة ذاتها، فتم خلالها تعطيل الـ Control policy، وهي شيء طبيعي يتحكم أو يقف في المنتصف بيننا وبينه أدوات الذكاء الاصطناعي بمختلف أنواعها.

وأضاف ممدوح أن هذه التقنية يمكنها التطوير من تلقاء نفسها، وصُممت في الأصل من أجل الروبوتات كي تتعلم بصورة فردية من البيئات المحيطة بها، والفكرة الأساسية أنه يفهم الدنيا حواليه بمعنى أنه الروبوت كل ما يرى مواقف وأحداث بمحيطه يستوعبها ويبدأ يتعلمها من تلقاء نفسه لكن أحيانًا وارد يتعلم أمرًا خطأ.

لذلك عادةً الشركة لا تسمح بذلك التطور للروبوت من تلقاء نفسه، كي لا يتشعب في اتخاذ القرارات، وللتفسير أكثر ولنفترض أن أحد الأشخاص يحاول جر الروبوت لمحادثات سيئة، في هذه الحالة تتدخل سياسة التحكم لتوقفها، فمن أول المدخلات المتمثلة في أسئلتنا، حتى المخرجات الخاصة بالروبوت المتمثلة في إجاباته هناك Perception action cycle، يتخللها الكنترول أو التحكم في الرد.

حرب غزة 2023 من منظور الذكاء الاصطناعي

 

وبالتطرق للجانب الخاص بحرب غزة، يقول الخبير التكنولوجي: ذلك يُعني أن هناك الكثير من محاولات المحادثة عن الأمر نفسه، وبناءً عليه قررت الشركة التعديل لعدم انسياق الروبوت بجوانب سياسية، وهو أمرًا طبيعيًا فالشركة لديها الحق المطلق بإيقاف تدخل إصداراتها في كثير من الأمور من وجهة نظرها، بتطوير قواعد وقوانين سياسة التحكم لأنها تعتبر دائرة الحماية، أو «ضمير» الذكاء الاصطناعي وهي غير قابلة للتعديل إلا من المصنعين أنفسهم.

وللتوضيح أكثر أعطانا أستاذ هندسة الذكاء الاصطناعي مثالًا قال خلاله: في حالة سماع سب أو ألفاظ نابية، قد يعتادها الروبوت ويتعامل أنها أمرًا طبيعيًا عبر استخدامه لإمكانية التطور التلقائي الزود بها، لذلك تتدخل الشركة بنفسها لإيقاف ذلك التطوير أحيانًا حين يخل بالقواعد الأصلية كي يستمر دائمًا كروبوت مثالي لا يُخطئ.

كيف استخدمت إسرائيل الذكاء الاصطناعي لتزييف الحقائق في حرب غزة؟

 

«Google Bard» يرفض الإجابة على أسئلة حرب غزة 2023

«Google Bard » يرفض الإجابة على أسئلة حرب غزة 2023
زر الذهاب إلى الأعلى
Verified by MonsterInsights