مبادئ توجيهية رئيسية لاستخدام الذكاء الاصطناعي

مع التطور السريع للمشهد الرقمي في الشرق الأوسط ، تزداد أهمية التحديات والضمانات الأساسية اللازمة للدمج الأخلاقي والفعال لتقنيات الذكاء الاصطناعي في الشركات.
لقد أدى التسارع في تطوير واعتماد تقنيات الذكاء الاصطناعي، وخاصة نماذج الذكاء الاصطناعي التوليدي للنصوص مثل “تشات جي بي تي” إلى تحقيق فوائد كبيرة، إلا أنه لا يمكن الاستهانة بالمخاطر المحتملة والمرتبطة باستخدامها. لذلك من المهم جداً أن تضع الشركات في الشرق الأوسط استراتيجيات استباقية شاملة لإدارة ومعالجة هذه المخاطر.

تحيزات الذكاء الاصطناعي التوليدي والمعايير الأخلاقية
تقع نماذج الذكاء الاصطناعي التوليدي فريسة لإدامة التحيزات المتأصلة في بيانات التدريب الخاصة بها. يمكن لهذه التحيزات تعزيز الصور النمطية وتقليل تمثيل وجهات نظر الأقليات عبر أبعاد مختلفة، بما في ذلك:
• التحيّز الزمني: تولد نماذج الذكاء الاصطناعي محتوى يعكس اتجاهات ووجهات نظر قديمة.
• التحيّز اللغوي: تؤدي بيانات التدريب باللغة الإنجليزية في الغالب إلى ضعف الأداء في اللغات الأخرى.
• التحيّز التأكيدي: يؤكد الذكاء الاصطناعي على المعلومات المخزنة بطريقة معينة (الذاكرة البارامترية) حتى لو وجدت أدلة جديدة تتعارض معها.
• التحيّز الديموغرافي: تُظهر نماذج الذكاء الاصطناعي سلوكاً متحيزاً تجاه الجنس أو العرق أو الفئات الاجتماعية المعينة، مثل إنشاء صور لمضيفات الطيران في الغالب على أنهن نساء من ذوات البشرة البيضاء.
• التحيّز الثقافي: يؤدي الذكاء الاصطناعي إلى تفاقم التحيزات الثقافية القائمة.
• التحيّز الأيديولوجي والسياسي: ينشر الذكاء الاصطناعي وجهات نظر سياسية وأيديولوجية محددة من بيانات تدريبه، مثل اقتراح برنامج “شات جي بي تي” للتعذيب المنهجي في بعض البلدان.

الهلوسات والقيود النموذجية
تنتج نماذج الذكاء الاصطناعي في بعض الأحيان معلومات خاطئة، تعرف باسم الهلوسات، والتي يمكن أن تشمل:
• هلوسات مبنية على المعرفة، حيث تقدم معلومات واقعية غير صحيحة.
• هلوسات حسابية، حيث تؤدي إلى حسابات خاطئة.
على سبيل المثال، اتهم “بارد” برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والذي طورته شركة غوغل، شركات استشارية باتهامات باطلة في نوفمبر 2023، مما سلط الضوء على التباين في معدلات الهلوسة بين النماذج.

التزييف العميق وتهديدات الأمن السيبراني
لقد أدى تطور تقنيات الذكاء الاصطناعي إلى تصعيد المخاطر المرتبطة بالتزييف العميق والأمن السيبراني. يمثّل سهولة إنشاء التزييف العميق والتلاعب بالآراء باستخدام المحتوى الذي يولده الذكاء الاصطناعي تهديدات كبيرة للاستقرار المجتمعي. لذا فإن الارتفاع الكبير في حوادث التزييف العميق وزيادة مصداقية هجمات التصيد الاحتيالي بسبب الذكاء الاصطناعي، يسلط الضوء على الحاجة الملحة إلى وجود ضمانات قوية.

إدارة استباقية للمخاطر
يجب على الشركات في الشرق الأوسط اعتماد نهج استباقي لإدارة مخاطر الذكاء الاصطناعي بما في ذلك:
• فهم المخاطر الاستراتيجية: فهم وتحديد التحديات والمخاطر الاستراتيجية المرتبطة بتطبيق الذكاء الاصطناعي.
• إجراء تقييمات شاملة للمخاطر: دمج تقييمات المخاطر الشاملة كجزء من المشهد الأولي للفرص.
• وضع قواعد أخلاقية للذكاء الاصطناعي: وضع وتنفيذ قواعد أخلاقية واضحة للذكاء الاصطناعي والتحقق من مخرجاته.
• تعزيز مهارات القوى العاملة: تأهيل وتدريب الموظفين والقادة لفهم وإدارة تقنيات الذكاء الاصطناعي.
• معالجة قضايا الثقة والثقافة: تسهيل عمليات الاعتماد والتبني السلس لتقنيات الذكاء الاصطناعي من خلال معالجة قضايا الثقة والثقافة لدى الموظفين.
تعتبر هذه الإرشادات ضرورية للشركات وللجهات الحكومية التي لديها تطبيقات الذكاء الاصطناعي لتعزيز الإنتاجية والابتكار دون المساس بالمعايير الأخلاقية وثقة الجمهور.

رؤى الخبراء
يؤكد الدكتور ألبرت ميج المدير المساعد لقسم ممارسات الابتكار العالمي في شركة آرثر دي ليتل، وهي شركة في طليعة الابتكار منذ عام 1886. وتتمتع بسمعة عالمية مرموقة كشركة استشارات رائدة في ربط الإستراتيجية والابتكار والتحول عبر مختلف القطاعات التي تقودها التكنولوجيا، على أهمية الحذر في استخدام الذكاء الاصطناعي: “على الرغم من فوائد الذكاء الاصطناعي التوليدي، إلا أنه يجب الحذر من مخاطره. لذا من المهم جداً أن تضع الشركات والجهات الحكومية المستفيدة في الشرق الأوسط استراتيجيات شاملة لإدارة المخاطر حتى تضمن استخدام الذكاء الاصطناعي بصورة متكاملة أخلاقياً وبشكل فعال على حد سواء”.
وبدوره قال توماس كوروفيلا، الشريك الإداري لدى “آرثر دي ليتل” الشرق الأوسط قائلاً: ” تحتل منطقة الشرق الأوسط طليعة ابتكارات الذكاء الاصطناعي، ومع هذه الريادة تأتي مسؤولية التعامل مع تعقيدات الذكاء الاصطناعي بأمان. تحتاج الشركات والجهات الحكومية المستفيدة إلى تسخير قوة الذكاء الاصطناعي والحد من مخاطر استخدامه”.
وفي المحصلة، يعد التعامل مع تعقيدات تكامل الذكاء الاصطناعي أمراً ضرورياً للشركات والجهات الحكومية التي تهدف إلى تعزيز الإنتاجية والابتكار دون المساس بالمعايير الأخلاقية والثقة العامة. ومن خلال اعتماد المبادئ التوجيهية الموصى بها، يمكن للشركات وللجهات الحكومية إدارة مخاطر الذكاء الاصطناعي بشكل فعال وتسخير إمكاناتها لتحقيق النمو والتنمية بصورة مستدامة.

تعليقات الفيسبوك

اضف تعليق