لا تفوت أخبار صناعة التسويق في الغد

نشرت: 2023-06-21

فيما يلي مقال ضيف من John Villafranco ، وهو شريك مع Kelley Drye الذي يقدم خدمات التقاضي والاستشارات للعلامات التجارية المنزلية وشركات Fortune 500 مع التركيز على قانون الإعلان وحماية المستهلك. الآراء هي للمؤلف.

مع التطور السريع لتكنولوجيا الذكاء الاصطناعي (AI) ، يعمل القانون لمواكبة وتيرة من أجل التخفيف من مخاطر النماذج المتزايدة القوة. تدرك الشركات التي تستخدم الذكاء الاصطناعي بسرعة العديد من الفرص التي تتيحها التكنولوجيا ، ولكنها تتعلم أيضًا الشواغل القانونية المرتبطة بها في مجالات مثل حماية المستهلك والخصوصية والأخلاق.

على سبيل المثال ، قد ينتج عن ChatGPT ونماذج اللغات الكبيرة الأخرى (LLMs) مخرجات خاطئة أو مضللة أو متحيزة أو غير قانونية أو غير دقيقة ، وقد يكون من الصعب تتبع مصدر الخطأ أو تحميل أي شخص المسؤولية عن العواقب. تتطلب هذه القضايا تدخلاً تنظيميًا - وهي حقيقة اعترف بها حتى سام التمان ، الرئيس التنفيذي لشركة OpenAI. وأي تدخل من هذا القبيل سيخلق مخاطر ومسؤوليات محتملة للمعلنين والمسوقين ، مع إعطاء الأولوية للسلامة.

توجيه لجنة التجارة الفيدرالية

ذكرت لجنة التجارة الفيدرالية أنه عندما يكون السلوك تجاريًا بطبيعته ، فإنها تعتبر التنظيم ضمن مجالها. عندما يتسبب هذا السلوك في إلحاق الضرر بالمستهلكين ، يجب على الشركات أن تتوقع من لجنة التجارة الفيدرالية أن تتصرف. ينطبق هذا على الذكاء الاصطناعي بقدر ما ينطبق على أي شكل آخر من أشكال الدعاية والتسويق التقليدية.

في إرشادات صدرت مؤخرًا ، ذكّرت لجنة التجارة الفيدرالية مستخدمي الذكاء الاصطناعي بأنه لا ينبغي لهم الانخراط في ممارسات تضر أكثر مما تنفع ، ولا ينبغي استخدام التكنولوجيا لتوجيه الناس بشكل غير عادل أو مخادع إلى قرارات ضارة. وتشمل مجالات الاهتمام التي تم تحديدها التمويل والصحة والتعليم والإسكان والتوظيف.

أشارت إرشادات FTC أيضًا إلى أن التلاعب يمكن أن يكون ممارسة خادعة أو غير عادلة بموجب المادة 5 من قانون FTC عندما يقود ناتج الذكاء الاصطناعي التوليدي المستهلك إلى موقع ويب معين أو مزود خدمة أو منتج معين بسبب علاقة تجارية. تتوافق الإرشادات مع تركيز لجنة التجارة الفيدرالية (FTC) مؤخرًا على ما يسمى "الأنماط المظلمة" - ممارسات أو تنسيقات تصميم متطورة تتلاعب بالمستهلكين أو تضللهم لاتخاذ الإجراءات التي لن يتخذوها بخلاف ذلك.

في الشهر الماضي ، بالإشارة إلى فيلم الإثارة النفسي "Ex Machina" لعام 2014 ، حذرت لجنة التجارة الفيدرالية الشركات من الإفراط في الاعتماد على روبوتات المحادثة والذكاء الاصطناعي لتوفير خدمة العملاء وحل استفسارات المستهلكين. أعربت لجنة التجارة الفيدرالية عن قلقها بشأن القدرة المحدودة للتكنولوجيا على حل المشكلات المعقدة ، واحتمال وجود معلومات غير دقيقة أو غير كافية ، والمخاطر الأمنية المرتبطة بها.

في رأي حديث نُشر في صحيفة نيويورك تايمز ، صرحت رئيسة لجنة التجارة الفيدرالية لينا خان أن لجنة التجارة الفيدرالية (FTC) تلقي نظرة فاحصة على أفضل السبل لتحقيق تفويضها المزدوج لتعزيز المنافسة العادلة وحماية الأمريكيين من الممارسات الإعلانية غير العادلة أو الخادعة. إن شاغلها السائد عندما يتعلق الأمر بالذكاء الاصطناعي هو منعه من فرض هيمنة السوق على شركات التكنولوجيا الكبيرة القائمة ، ولكن من الواضح أن ممارسات الإعلان غير العادلة والمضللة المتعلقة بالذكاء الاصطناعي على رادار الوكالة.

مخاوف الخصوصية المتزايدة

يزيد استخدام LLM في منتجات الأعمال أيضًا من مخاوف الخصوصية الحالية ، والتي يمكن أن تضعف سمعة الشركة أو تشكك في سلامتها مع المستهلكين والمنظمين الحكوميين. على سبيل المثال ، قد يقوم ChatGPT بما يلي:

  • الاستخدام المتعمد أو غير المتعمد للمعلومات الشخصية التي تم الحصول عليها بدون أساس قانوني أو بدون شفافية وإشعار كافيين ؛
  • كشف البيانات الشخصية للمستخدمين أو الإشارات إلى أطراف ثالثة ، والتي يمكنها الوصول إلى مدخلات ومخرجات الأداة أو تحليلها ، مما قد يعرض حماية البيانات أو التزامات السرية للخطر ؛ و
  • الكشف عن المعلومات الحساسة التي يقدمها المستخدمون للأداة ، سواء عن قصد أو عن غير قصد ، مثل البيانات المالية أو السجلات الصحية أو الأسرار التجارية ، والتي قد تؤدي إلى مسؤولية ناتجة عن انتهاكات البيانات.

قد تعرض أي من هذه النتائج الشركة للمسؤولية بموجب قانون FTC وقوانين الدولة التي تحظر الأعمال والممارسات غير العادلة والخداع.

الشكاوى والدعاوى القضائية الحالية بشأن الذكاء الاصطناعي

تراقب الأطراف المهتمة وتستعد لاتخاذ خطوات لمحاسبة الشركات. على سبيل المثال ، قدم مركز الذكاء الاصطناعي والسياسة الرقمية (CAIDP) مؤخرًا شكوى إلى لجنة التجارة الفيدرالية (FTC) ، وحث الوكالة على التحقيق في OpenAI ، مدعيا أن ممارساتها التجارية غير عادلة ومضللة وتنتهك قانون FTC ، وتثير أسئلة جدية بخصوص التحيز وسلامة الأطفال وحماية المستهلك والأمن السيبراني والخداع والخصوصية والشفافية والسلامة العامة.

كما تم رفع عدد من الدعاوى القضائية الخاصة بزعم حدوث انتهاكات لحقوق النشر بسبب الذكاء الاصطناعي. على سبيل المثال ، Microsoft و GitHub و Open AI هم المدعى عليهم حاليًا في دعوى جماعية خارج ولاية كاليفورنيا تدعي أن منتج AI الذي ينشئ رمزًا ينتهك قانون حقوق النشر عن طريق إخراج رمز مرخص دون تقديم ائتمان. كما رفعت Getty Images دعوى قضائية ضد Stability AI ، زاعمة أن أداة الذكاء الاصطناعي الخاصة بها قد كشطت صورًا من موقعها.

والقلق عالمي وليس محلي فقط. في مارس 2023 ، أمرت Garante ، هيئة الإشراف على البيانات الإيطالية ، شركة OpenAI بالتوقف عن معالجة بيانات المستخدمين الإيطاليين بموجب حظر مؤقت ، مشيرة إلى أن ChatGPT من المحتمل أن ينتهك القانون العام لحماية البيانات (عدم وجود إشعار للمستخدمين ، وعدم وجود أساس قانوني للمعالجة ، وعدم التحقق من عمر المستخدمين) أو منع الأطفال من استخدام الخدمة). بالإضافة إلى ذلك ، فتح مكتب مفوض الخصوصية الكندي تحقيقًا في OpenAI حول "جمع المعلومات الشخصية واستخدامها والإفصاح عنها دون موافقة". صرح مكتب مفوض الخصوصية فيليب دوفرسن أن البقاء في طليعة "التطورات التكنولوجية السريعة الحركة" هو مجال تركيز رئيسي.

اعتبارات للمسوقين

مع وجود الكثير من الأنظار على الذكاء الاصطناعي ، يُنصح المعلنون والمسوقون بالمضي قدمًا بحذر. في الوقت الحالي ، مع بدء إدراك إمكانية التأثير الإيجابي لهذه الأنظمة المتقدمة ، فإن هذا يعني ضمان دمج السلامة في الأنظمة ، واستخدام البيانات بشكل مسؤول ، وشفافية الممارسات ، وتعزيز الدقة الواقعية من خلال الرقابة البشرية وفرصة التدخل.