إرشادات أخلاقيات الذكاء الاصطناعي: مخاوف واتجاهات استخدام الذكاء الاصطناعي

نشرت: 2019-07-27

تقوم الوكالات والشركات الحكومية ببناء أطر للاستخدام الأخلاقي للذكاء الاصطناعي

في أبريل ، قدمت المفوضية الأوروبية إرشادات أخلاقية للذكاء الاصطناعي لمساءلة الذكاء الاصطناعي في التكنولوجيا. هذا هو الأحدث في سلسلة طويلة من المنظمات السياسية والشركات التي تستعد لتنفيذ استراتيجيات لمستقبل استخدام الذكاء الاصطناعي.

من خلال الاستشهاد بالمشاكل في صنع القرار والمساءلة ، هناك دعوات لزيادة المساءلة والتركيز على الاعتبارات الأخلاقية بينما يتقدم العالم في تكنولوجيا الذكاء الاصطناعي الناشئة الجديدة.

كما رأينا مع القانون العام لحماية البيانات (GDPR) ، يمكن أن يكون للوائح التقنية الموضوعة في جميع أنحاء العالم تأثيرات عميقة بسرعة كبيرة على الشركات. من المتوقع أن تنفق الشركات الأمريكية ما يقرب من 42 مليار دولار على الامتثال للقانون القائم في الاتحاد الأوروبي.

أصبح الذكاء الاصطناعي عنصرًا أساسيًا في الأعمال التجارية الحديثة مع إدراك المزيد والمزيد من الشركات لقيمته. من الأتمتة إلى التحليلات المتعمقة ، سيصبح الذكاء الاصطناعي محوريًا في خرائط طريق التحول للعديد من الشركات الصغيرة والمتوسطة حيث تصبح الخيارات الشاملة للأتمتة في متناول المؤسسات الأصغر.

تداعيات هذه الإرشادات على كيفية استخدام الذكاء الاصطناعي وتنفيذه هو السؤال الذي يطرح نفسه على شفاه الجميع. وضعت البلدان التي لديها قطاعات تكنولوجية رائدة مثل كندا واليابان بالفعل خططًا شاملة للذكاء الاصطناعي تتضمن مبادئ استخدامه الأخلاقي.

بدأت الحكومة الأمريكية في إجراء دراسات استكشافية في الاعتبار الأخلاقي للذكاء الاصطناعي ، وأعلنت في وقت سابق من هذا العام هدفها المتمثل في تنمية صناعة تكنولوجيا الذكاء الاصطناعي. دخلت الشركات أيضًا في هذا العمل ، على الرغم من أن محاولة Google لتشكيل لجنة أخلاقية حول هذه المسألة في الربيع الماضي كانت كارثة ملحوظة.

الذكاء الاصطناعي في التكنولوجيا: فوائد الأتمتة

تعتبر مسألة الأخلاق والمساءلة وثيقة الصلة بشكل خاص بالذكاء الاصطناعي في مجال الأعمال. يتم تطبيق الذكاء الاصطناعي بشكل شائع في المهام اليدوية العادية. غالبًا ما تكون هذه مهام يدوية روتينية منخفضة القيمة تأخذ الموظفين بعيدًا عن المهام الأكثر قيمة. في كثير منهم ، قد يشرف البشر على العملية ، ولكن عادة ، يتطلب الأمر إشرافًا محدودًا. عادةً ما يتم الاستفادة من الذكاء الاصطناعي لتحقيق الفوائد التي يجلبها في التطبيقات ، بما في ذلك:

  • التهديدات السيبرانية: تتبع الخوارزميات السلوك ، وتكتشف الانحرافات في الأنماط ، وتعمل خارج ساعات العمل. يمكن للذكاء الاصطناعي التعامل مع مهام تكنولوجيا المعلومات الروتينية اليومية ، وأتمتة النسخ الاحتياطي للبيانات ، وتأمين البيانات من الاختراق. يمكن للمتخصصين بدلاً من ذلك التركيز على المبادرات عالية المستوى والمشاريع الأكثر تعقيدًا التي تتطلب لمسة إنسانية.
  • أتمتة العمليات: مثل إدخال البيانات أو تجميعها أو فهرستها. يقضي الموظفون وقتًا أقل في التسجيل والمزيد من الوقت في بناء العلاقات أو تطوير الأفكار لدفع الأعمال إلى النجاح.
  • التحليلات المستمرة : لدراسة العملاء وتحليل جوانب العمليات التجارية. حاليًا ، يتيح استخدامه هنا فهمًا أفضل لتجربة العميل وكيفية عمل الموظفين.

المخاوف

أدى التطور السريع لأنظمة الذكاء الاصطناعي بين المنظمات الكبيرة والشركات الصغيرة والمتوسطة إلى زيادة الاهتمام. بصرف النظر عن الفواق الذي حدث في وقت سابق من العام ، حددت Google قائمة معقولة من الأهداف للاستخدام الأخلاقي للذكاء الاصطناعي والتي تشبه الموضوعات الشائعة في الإرشادات الأخرى. تضع القائمة اعتبارات لما يلي:

  • المنافع الاجتماعية: احترام الأعراف الثقافية والاجتماعية والقانونية
  • التحيز : منع الخوارزميات وقواعد البيانات من أن تعكس بشكل غير عادل التحيزات المتعلقة بخصائص مثل العرق والجنس والجنسية
  • المساءلة : توفير الفرص للتغذية الراجعة والاستئناف. اجعل تقنية الذكاء الاصطناعي تخضع لتوجيهات وسيطرة الإنسان
  • الخصوصية: ابتكر تقنية الذكاء الاصطناعي مع ضمانات الخصوصية والشفافية المناسبة

تحديد المعايير

في المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي الجديرة بالثقة ، وضع الاتحاد الأوروبي سبعة متطلبات أساسية مماثلة يأمل أن تصبح أساسًا لمبادئ توجيهية أخلاقية لتشكيل الصناعة على مستوى العالم.

يأتي ذلك في أعقاب اللائحة العامة لحماية البيانات في العام الماضي ، والتي لاقت شعبية حتى الآن من خلال تأطير خصوصية البيانات كحق أساسي للمواطنين. سعت هذه المبادئ التوجيهية الأخلاقية بالمثل إلى تأطير المبادئ الإنسانية الأساسية لتكون مركز أنظمة الذكاء الاصطناعي.

تؤكد العناصر الرئيسية على الرقابة البشرية وخصوصية البيانات والمساءلة - مع ملاحظة أنه مع زيادة ظهور تقنيات الذكاء الاصطناعي ، يجب أن يكون هناك جهد متضافر لمراعاة الاهتمامات العامة الرئيسية.

ذكاء اصطناعي غير مراقب

هذه الإرشادات مهمة لأنها تلقي الضوء على السباق نحو التفوق في الذكاء الاصطناعي. تتخلف أوروبا بشكل ملحوظ عن الصين والولايات المتحدة من حيث الاستثمار التكنولوجي ، لكنها وجدت دعمًا عالميًا لإدخال إرشادات في مجالات أخرى مثل قوانين الانبعاثات ومعايير الغذاء.

يمكن النظر إلى هذه الدفعة الجديدة على أنها محاولة لقيادة الطريق في موضوع يكتسب زخمًا سريعًا. من خلال تمييز أنفسهم عن غيرهم ، يمكنهم أن يكتسبوا اليد العليا في قيادة النقاش حول الأخلاق في صناعة الذكاء الاصطناعي في جميع أنحاء العالم.

مثل هذا النهج ليس غير مبرر ولا مخادع. تختلف أولويات استراتيجيات الذكاء الاصطناعي حول العالم بشكل كبير في أهدافها. الولايات المتحدة ، على سبيل المثال ، تقود حاليًا معارضة فرض حظر عالمي على الروبوتات القاتلة. من ناحية أخرى ، ركزت الصين بشكل أساسي على نظام الائتمان الاجتماعي المثير للجدل والذي يتطلع إلى الاستفادة من وصولها الكامل إلى بيانات المواطنين.

يؤكد كلاهما على استخدام الذكاء الاصطناعي غير الخاضع للرقابة - أي التكنولوجيا المؤتمتة بالكامل مع القليل من الإشراف البشري أو عدم وجوده على الإطلاق لاتخاذ القرارات بشأن كيفية التعامل مع الأشخاص. يتمثل جوهر القلق الأوروبي في أن مثل هذه التكنولوجيا قد تمكن الشركات - وربما الحكومات - في نهاية المطاف من التخلي عن المسؤولية عن اتخاذ القرارات أو استخدام الذكاء الاصطناعي لأغراض مثيرة للجدل.

كيف ستتأثر الشركات الأمريكية؟

بالطبع ، هذه الإرشادات ليست منصوصًا عليها في القانون ، كما هو الحال مع معظم مناهج الذكاء الاصطناعي من قبل الهيئات الحاكمة. ومع ذلك ، فإنها تعمل كأساس للمحادثات المستقبلية حول هذا الموضوع ويمكن أن تشكل هيكل التنظيم المستقبلي ، مع اختبار المبادئ التوجيهية مع المنظمات ابتداء من عام 2020.

مع دخول قانون خصوصية المستهلك في كاليفورنيا - "الناتج المحلي الإجمالي في الولايات المتحدة" - حيز التنفيذ العام المقبل ، فليس من غير المعقول افتراض أن قوانين التكنولوجيا المستقبلية ستستلهم أيضًا من جميع أنحاء البركة. لقد أيدت الولايات المتحدة ، إلى جانب 41 دولة أخرى ، الخطوة الأخيرة التي اتخذتها منظمة التعاون الاقتصادي والتنمية (OECD) لوضع مبادئ غير ملزمة للذكاء الاصطناعي.

بعد عمليات الإعداد المسبق والتكاليف التي كان يجب إجراؤها بعد دخول اللائحة العامة لحماية البيانات حيز التنفيذ ، ستبحث الشركات الأمريكية بفضول لمعرفة كيف ستؤثر هذه الإرشادات على المؤسسات في المستقبل.

بالنظر إلى الصحافة السيئة التي تلقتها بالفعل بعض الشركات الأمريكية الكبيرة ، وعلى الرغم من الجهود الفردية لإنشاء طرق داخلية فيما يتعلق بتكنولوجيا الذكاء الاصطناعي ، فقد تجد الشركات نفسها تتكيف مع لوائح المشرعين عاجلاً وليس آجلاً.

قد يعني هذا بشكل أساسي أنه ، كما هو الحال مع اللائحة العامة لحماية البيانات (GDPR) ، من الأفضل للمنظمات تقييم أفضل السبل للاستعداد للمطبات المحتملة في المستقبل. إن استخدام البيانات الضخمة ، على سبيل المثال ، بشكل جماعي لتحسين قدرات تقنية الذكاء الاصطناعي ، هو ممارسة قد تجد نفسها في خط إطلاق مخاوف بشأن شفافية البيانات.

مستقبل الذكاء الاصطناعي والأتمتة

يوفر الذكاء الاصطناعي في التكنولوجيا العديد من المزايا للشركات من خلال تبسيط العمليات والقضاء على الأعمال الروتينية للمهام منخفضة المستوى والمتكررة. ومع ذلك ، يمكن أن تصبح هذه الفوائد نفسها مشكلة بسرعة بسبب وسائل تحقيقها.

هذا هو الحال بشكل خاص مع ممارسات مثل جمع كميات هائلة من بيانات العملاء لتحسين الاستجابة البشرية للذكاء الاصطناعي. هل سيظل المستهلكون مرتاحين لهذا في المستقبل القريب؟ إذا لم يكن الأمر كذلك ، فسيتعين على الشركات الصغيرة والمتوسطة التي تستخدم استراتيجيات ذكاء اصطناعي مكثفة في مؤسساتها أن تفكر بجدية في خطة لتوقع التحديات القادمة التي قد يفرضها استخدام الذكاء الاصطناعي مع لوائح أخلاقية أكثر صرامة.

ليس هناك من ينكر كيف يساعد الذكاء الاصطناعي الشركات ، وسيستمر استخدامه في النمو في المستقبل القريب. ومع ذلك ، فقد تعرفنا بالفعل على كيفية تفاعل الناس مع التكنولوجيا المتقدمة عندما يتعلق الأمر بالخصوصية.

تخضع ممارسات الذكاء الاصطناعي الأخلاقية لتدقيق مماثل مثل حماية البيانات والخصوصية ، لذلك من الجيد أن يكون صانعو القرار في الشركات الصغيرة والمتوسطة على دراية بالاعتبارات التي من المرجح أن يضطروا إلى اتخاذها عندما تصبح التكنولوجيا أكثر تعقيدًا.

تريد معرفة المزيد؟

الذكاء الاصطناعي هو أداة قوية يمكن للمؤسسات الاستفادة منها لزيادة الإنتاجية والكفاءة. اقرأ المزيد عن أتمتة العمليات الذكية وتواصل لبدء محادثة اليوم.