السلامة والأخلاق في الذكاء الاصطناعي - نهج Meltwater

نشرت: 2023-08-16

يعمل الذكاء الاصطناعي على تغيير عالمنا ، حيث يقدم لنا إمكانات جديدة مذهلة مثل إنشاء المحتوى الآلي وتحليل البيانات ، ومساعدي الذكاء الاصطناعي المخصص. في حين توفر هذه التكنولوجيا فرصًا غير مسبوقة ، فإنها تطرح أيضًا مخاوف كبيرة تتعلق بالسلامة يجب معالجتها لضمان استخدامها الموثوق به والعادل.

في Meltwater ، نؤمن بأن فهم ومعالجة تحديات السلامة للذكاء الاصطناعي أمر بالغ الأهمية للتقدم المسؤول لهذه التكنولوجيا التحويلية.

تدور الاهتمامات الرئيسية لسلامة الذكاء الاصطناعي حول كيفية جعل هذه الأنظمة موثوقة وأخلاقية ومفيدة للجميع. ينبع هذا من إمكانية تسبب أنظمة الذكاء الاصطناعي في إحداث ضرر غير مقصود ، أو اتخاذ قرارات لا تتماشى مع القيم الإنسانية ، أو استخدامها بشكل ضار ، أو أن تصبح قوية لدرجة أنها تصبح خارجة عن السيطرة.

جدول المحتويات

  • المتانة

  • تنسيق

  • التحيز والإنصاف

  • التفسير

  • المغزى

  • الطريق إلى الأمام من أجل سلامة الذكاء الاصطناعي


المتانة

تشير متانة الذكاء الاصطناعي إلى قدرته على الأداء الجيد باستمرار حتى في ظل الظروف المتغيرة أو غير المتوقعة.

إذا لم يكن نموذج الذكاء الاصطناعي قويًا ، فقد يفشل بسهولة أو يقدم نتائج غير دقيقة عند تعرضه لبيانات أو سيناريوهات جديدة خارج العينات التي تم التدريب عليها. لذلك ، فإن أحد الجوانب الأساسية لسلامة الذكاء الاصطناعي هو إنشاء نماذج قوية يمكنها الحفاظ على مستويات عالية الأداء في مختلف الظروف.

في Meltwater ، نتعامل مع متانة الذكاء الاصطناعي في كل من مرحلتي التدريب والاستدلال. يتم استخدام تقنيات متعددة مثل التدريب العدائي ، وتقدير عدم اليقين ، والتعلم الموحد لتحسين مرونة أنظمة الذكاء الاصطناعي في المواقف غير المؤكدة أو الخصومة.

تنسيق

في هذا السياق ، يشير مصطلح "المحاذاة" إلى عملية ضمان توافق أهداف وقرارات أنظمة الذكاء الاصطناعي مع القيم الإنسانية ، وهو مفهوم يُعرف باسم محاذاة القيمة.

يمكن للذكاء الاصطناعي المنحرف اتخاذ قرارات يعتبرها البشر غير مرغوب فيها أو ضارة ، على الرغم من كونها مثالية وفقًا لمعايير التعلم الخاصة بالنظام. لتحقيق ذكاء اصطناعي آمن ، يعمل الباحثون على أنظمة تفهم وتحترم القيم الإنسانية خلال عمليات صنع القرار ، حتى أثناء التعلم والتطور.

يتطلب بناء أنظمة ذكاء اصطناعي متوافقة مع القيمة تفاعلًا مستمرًا وردود فعل من البشر. تستخدم Meltwater بشكل مكثف تقنيات Human In The Loop (HITL) ، حيث تدمج ردود الفعل البشرية في مراحل مختلفة من سير عمل تطوير الذكاء الاصطناعي ، بما في ذلك المراقبة عبر الإنترنت لأداء النموذج.

يتم اعتماد تقنيات مثل التعلم المعزز العكسي والتعلم التعزيزي التعاوني وألعاب المساعدة لتعلم واحترام القيم والتفضيلات الإنسانية. نحن أيضًا نستفيد من نظرية التجميع والاختيار الاجتماعي للتعامل مع القيم المتضاربة بين البشر المختلفين.

التحيز والإنصاف

تتمثل إحدى المشكلات المهمة في الذكاء الاصطناعي في قدرته على تضخيم التحيزات الحالية ، مما يؤدي إلى نتائج غير عادلة.

يمكن أن ينتج التحيز في الذكاء الاصطناعي عن عوامل مختلفة ، بما في ذلك (على سبيل المثال لا الحصر) البيانات المستخدمة لتدريب الأنظمة أو تصميم الخوارزميات أو السياق الذي يتم تطبيقه فيه. إذا تم تدريب نظام الذكاء الاصطناعي على البيانات التاريخية التي تحتوي على قرارات متحيزة ، فقد يؤدي النظام عن غير قصد إلى استمرار هذه التحيزات.

مثال على ذلك هو اختيار الوظيفة الذي قد يفضله الذكاء الاصطناعي بشكل غير عادل جنسًا معينًا لأنه تم تدريبه على قرارات التوظيف السابقة التي كانت متحيزة. تعني معالجة الإنصاف بذل جهود مدروسة لتقليل التحيز في الذكاء الاصطناعي ، وبالتالي ضمان معاملته لجميع الأفراد والجماعات بإنصاف.

تقوم Meltwater بإجراء تحليل التحيز في جميع مجموعات بيانات التدريب الخاصة بنا ، سواء كانت داخلية أو مفتوحة المصدر ، وتحث جميع نماذج اللغات الكبيرة (LLMs) بشكل عكسي على تحديد التحيز. نحن نستخدم الاختبار السلوكي على نطاق واسع لتحديد المشكلات النظامية في نماذج المشاعر لدينا ، ونفرض أكثر إعدادات الإشراف على المحتوى صرامة على جميع LLMs التي يستخدمها مساعدو الذكاء الاصطناعي لدينا. يتم الاستفادة من تعريفات عدالة إحصائية وحسابية متعددة ، بما في ذلك (على سبيل المثال لا الحصر) التكافؤ الديموغرافي وتكافؤ الفرص والإنصاف الفردي ، لتقليل تأثير تحيز الذكاء الاصطناعي في منتجاتنا.

التفسير

تُعد الشفافية في الذكاء الاصطناعي ، التي غالبًا ما يشار إليها باسم القابلية للتفسير أو القابلية للتفسير ، أحد الاعتبارات الهامة المتعلقة بالسلامة. إنه ينطوي على القدرة على فهم وشرح كيفية اتخاذ أنظمة الذكاء الاصطناعي القرارات.

بدون القابلية للتفسير ، يمكن أن تبدو توصيات نظام الذكاء الاصطناعي مثل الصندوق الأسود ، مما يجعل من الصعب اكتشاف الأخطاء أو التحيزات وتشخيصها وتصحيحها. وبالتالي ، فإن تعزيز القابلية للتفسير في أنظمة الذكاء الاصطناعي يعزز المساءلة ويحسن ثقة المستخدم ويعزز الاستخدام الأكثر أمانًا للذكاء الاصطناعي. تتبنى Meltwater تقنيات قياسية ، مثل LIME و SHAP ، لفهم السلوكيات الأساسية لأنظمة الذكاء الاصطناعي الخاصة بنا وجعلها أكثر شفافية.

المغزى

يشير انجراف الذكاء الاصطناعي ، أو مفهوم الانجراف ، إلى التغيير في أنماط بيانات الإدخال بمرور الوقت. قد يؤدي هذا التغيير إلى انخفاض في أداء نموذج الذكاء الاصطناعي ، مما يؤثر على موثوقية وسلامة توقعاته أو توصياته.

يعد اكتشاف الانجراف وإدارته أمرًا بالغ الأهمية للحفاظ على سلامة وقوة أنظمة الذكاء الاصطناعي في عالم ديناميكي. تتطلب المعالجة الفعالة للانجراف مراقبة مستمرة لأداء النظام وتحديث النموذج عند الضرورة.

تراقب Meltwater توزيعات الاستنتاجات التي قدمتها نماذج الذكاء الاصطناعي الخاصة بنا في الوقت الفعلي من أجل اكتشاف انجراف النموذج ومشكلات جودة البيانات الناشئة.

الطريق إلى الأمام من أجل سلامة الذكاء الاصطناعي

تعد سلامة الذكاء الاصطناعي تحديًا متعدد الأوجه يتطلب جهدًا جماعيًا للباحثين ومطوري الذكاء الاصطناعي وواضعي السياسات والمجتمع ككل.

كشركة ، يجب أن نساهم في خلق ثقافة يتم فيها إعطاء الأولوية لسلامة الذكاء الاصطناعي. ويشمل ذلك وضع معايير السلامة على مستوى الصناعة ، وتعزيز ثقافة الانفتاح والمساءلة ، والالتزام الثابت باستخدام الذكاء الاصطناعي لزيادة قدراتنا بطريقة تتماشى مع قيم Meltwater الأكثر رسوخًا.

مع هذا الالتزام المستمر تأتي المسؤولية ، وقد أنشأت فرق الذكاء الاصطناعي في Meltwater مجموعة من مبادئ Meltwater الأخلاقية للذكاء الاصطناعي مستوحاة من مبادئ Google و OECD. تشكل هذه المبادئ الأساس لكيفية إجراء Meltwater للبحث والتطوير في الذكاء الاصطناعي والتعلم الآلي وعلوم البيانات.

  1. إفادة المجتمع كلما أتيحت الفرص بطرق شاملة ومستدامة.
  2. التحيز والانجراف من العيوب. لقد فشلوا في العمل وعملائنا.
  3. الأمان والخصوصية والأمن كمواطنين من الدرجة الأولى.
  4. تتبع كل شيء وكن مسؤولاً. الشفافية هي المفتاح.
  5. نحن علماء ومهندسون. يجب إثبات واختبار كل شيء.
  6. استخدم المصدر المفتوح كلما أمكن ذلك ؛ فحص كل شيء آخر وافترض أنه غير آمن.

أقامت Meltwater شراكات وعضوية لتعزيز التزامها بتعزيز ممارسات الذكاء الاصطناعي الأخلاقية.

  • أنشأت Meltwater مجلسًا استشاريًا علميًا (SAB) ، وهو فريق من الباحثين العلميين المتميزين والمتخصصين الذين يقدمون إرشادات حول استراتيجية Meltwater للذكاء الاصطناعي.
  • تلتزم شركة Meltwater بإرشادات مجلس العلاقات العامة للذكاء الاصطناعي التوليدي الذي تم تقديمه في أبريل 2023
  • تساعد Meltwater العلامات التجارية التي تلتزم بـ WAF GARM's Brand Safety Floor & Suitability Framework من خلال توفير نماذج متعددة للذكاء الاصطناعي للكشف عن المحتوى الضار والمسيء وغير الآمن في النص والصوت والصور ومقاطع الفيديو ، بما في ذلك حالات استخدام المعلومات الخاطئة من خلال شراكة Newsguard الخاصة بنا.

نحن فخورون للغاية بالمدى الذي قطعته Meltwater في تقديم الذكاء الاصطناعي الأخلاقي للعملاء. نعتقد أن Meltwater تستعد لمواصلة تقديم ابتكارات خارقة لتبسيط رحلة الذكاء في المستقبل ، ونحن متحمسون لمواصلة الاضطلاع بدور قيادي في الدفاع بمسؤولية عن مبادئنا في تطوير الذكاء الاصطناعي ، وتعزيز الشفافية المستمرة ، مما يؤدي إلى زيادة الثقة بين العملاء.