AI 倫理ガイドライン: AI 使用の懸念事項と方向性
公開: 2019-07-27政府機関と企業は、倫理的な AI 使用のためのフレームワークを構築しています
4 月に、欧州委員会は、技術における人工知能の説明責任に関する倫理的な AI ガイドラインを導入しました。 これは、AI の使用の将来に向けて戦略を実行する準備をしている政治組織や企業組織の長い列の最新のものです。
意思決定と説明責任の問題を引き合いに出し、世界が新たに台頭する AI 技術で前進するにつれて、説明責任の強化と倫理的配慮の重視が求められています。
GDPR で見たように、世界中で制定された技術規制は、ビジネスに大きな影響を与える可能性があります。 米国企業は、EU に基づく法律の遵守に合計で約 420 億ドルを費やすと予測されています。
AI の価値を認識する企業が増えるにつれ、AI は現代のビジネスの定番になりつつあります。 自動化から詳細な分析まで、AI は多くの中小企業の変革ロードマップの中心となるでしょう。自動化の包括的なオプションが小規模な組織にとって手頃な価格になるためです。
AI の使用方法と実装方法に関するこれらのガイドラインの意味は、誰もが口にする疑問です。 カナダや日本のような主要な技術セクターを持つ国は、その倫理的使用の原則を含む AI の広範な計画をすでに策定しています。
米国政府は、AI の倫理的配慮の探索的調査を開始し、今年初めに AI 技術産業を成長させるという目標を表明しました。 企業もこの動きに加担しているが、Google がこの問題について昨年春に倫理委員会を立ち上げようとしたことは大きな失敗に終わった。
AI in Tech: 自動化のメリット
倫理と説明責任の問題は、ビジネスにおける AI に特に関係があります。 AI は、日常的な手動タスクに最も一般的に適用されます。 これらは多くの場合、価値の低い定期的な手動タスクであり、従業員をより価値のあるタスクから遠ざけます。 それらの多くでは、人間がプロセスを監督する場合がありますが、通常は限定的な監督が必要です。 AI は一般に、次のようなアプリケーションにもたらす利点のために活用されます。
- サイバー脅威:アルゴリズムは動作を追跡し、パターンの異常を検出し、営業時間外に動作します。 AI は、日常的な IT タスクを処理し、データ バックアップを自動化し、ハッキングからデータを保護することができます。 スペシャリストは、代わりに、より高度なイニシアチブや、人間の手を必要とするより複雑なプロジェクトに集中できます。
- プロセスの自動化:データ入力、照合、索引付けなど。 従業員はファイリングに費やす時間を減らし、関係を構築したり、ビジネスを成功に導くためのアイデアを開発したりすることに多くの時間を費やします。
- 継続的な分析: 顧客の調査と事業運営の側面の分析の両方。 現在、ここで使用することで、顧客体験と従業員の働き方をよりよく理解することができます。
懸念事項
大規模な組織や SMB での AI システムの急速な開発により、関心が高まっています。 今年初めの問題は別として、Google は AI の倫理的な使用に関する合理的な目標のリストを概説しました。これは、他のガイドラインで一般的なテーマに似ています。 このリストでは、次のことを考慮しています。
- 社会的利益:文化的、社会的、および法的規範の尊重
- バイアス: 人種、性別、国籍などの特性に関連するバイアスがアルゴリズムやデータベースに不当に反映されるのを防ぐ
- 説明責任: フィードバックとアピールの機会を提供します。 AI技術を人間の指示と制御の対象にする
- プライバシー:プライバシー保護と適切な透明性を備えた AI 技術を作成する
基準の設定
信頼できる AI のための倫理ガイドラインで、EU は 7 つの同様の必須要件を提示しており、これが業界を世界的に形作る倫理ガイドラインの基盤となることを望んでいます。
これは昨年の GDPR に続くもので、データのプライバシーを市民の基本的な権利として捉えることで、これまで人気を博してきました。 これらの倫理ガイドラインも同様に、AI システムの中心となる基本的な人間の原則を組み立てようとしました。
重要な要素は、人間による監視、データのプライバシー、および説明責任を強調しています。AI テクノロジーがより普及するにつれて、主要な社会的関心を考慮に入れるための協調的な取り組みが必要であることに注意してください。
監視されていない AI
これらのガイドラインは、AI の覇権をめぐる競争に光を当てるため、重要です。 ヨーロッパは、技術投資の点で中国と米国に著しく遅れをとっていますが、排出法や食品基準などの他の分野でのガイドラインの導入に対する世界的な支持を得ています.
この新しいプッシュは、急速に勢いを増しているトピックを先導する試みと見なすことができます. 自らを際立たせることで、彼らは AI 業界の倫理に関する世界中の議論をリードする上で優位に立つことができます。
そのようなアプローチは不当でも不誠実でもありません。 世界中の AI 戦略の優先順位は、その目的によって大きく異なります。 たとえば、米国は現在、殺人ロボットの世界的な禁止に反対しています。 一方、中国は主に、市民データへの完全なアクセスを利用しようとする論争の的となっている社会信用システムに焦点を当ててきました。
どちらも、監視されていない AI の使用を強調しています。つまり、人間の監視がほとんど、またはまったくない、完全に自動化されたテクノロジーであり、人々への対処方法を決定します。 ヨーロッパの懸念の核心は、そのようなテクノロジーが最終的に、企業、そしておそらく政府が意思決定の責任を放棄したり、物議を醸す目的で AI を使用したりすることを可能にする可能性があるということです。
米国のビジネスはどのような影響を受けますか?
もちろん、これらのガイドラインは、統治機関による AI へのほとんどのアプローチと同様に、法律で定められているわけではありません。 ただし、それらはこのトピックに関する将来の会話の基盤として機能し、2020 年に開始される組織とのガイドラインのテストにより、将来の規制の構造を形成する可能性があります。
カリフォルニア州の消費者プライバシー法 (「米国の GDPR」) が来年発効することから、将来のテクノロジー関連法も池の向こうからインスピレーションを得るものと考えるのは不合理ではありません。 米国は、他の 41 か国と共に、経済協力開発機構 (OECD) による AI の拘束力のない原則を確立するための最近の動きを既に支持しています。
GDPR の発効後に行わなければならなかった準備とコストの後、米国の企業は、これらのガイドラインが組織にどのように影響するかを知りたいと考えています。
米国の大企業の一部がすでに受けている悪評を考えると、AI 技術に参入するための単独の努力にもかかわらず、企業は遅かれ早かれ議会の規制に適応する可能性があります。
これは本質的に、GDPR の場合と同様に、組織が将来の潜在的な衝突に備えるための最善の方法を評価するよう適切にアドバイスされることを意味する可能性があります。 たとえば、AI技術の能力を向上させるために大量に利用されるビッグデータの使用は、データの透明性に関する懸念の発火点になる可能性があります.
AI と自動化の未来
技術における AI は、プロセスを合理化し、低レベルで反復的なタスクの雑用を排除することにより、ビジネスに多くの利点をもたらします。 ただし、これらの同じ利点は、それらを達成するための手段のために、すぐに問題になる可能性があります.
これは特に、AI と人間の対応を改善するために膨大な量の顧客データを収集するなどの慣行に当てはまります。 近い将来、消費者はこれに満足できるでしょうか? そうでない場合、大規模な AI 戦略を組織に採用している SMB は、AI の使用がより厳しい倫理規制によってもたらす可能性のある今後の課題を予測するための計画を真剣に検討する必要があります。
AI がビジネスにどのように役立つかは否定できませんが、その使用は近い将来に拡大し続けるでしょう。 ただし、高度なテクノロジーがプライバシーに関係する場合、人々がどのように反応するかについては、すでに味わっています.
倫理的な AI の実践は、データ保護やプライバシーと同様の精査を受けているため、SMB の意思決定者は、テクノロジがより洗練されるにつれて、必要になる可能性が高い考慮事項を認識しておくことをお勧めします。
もっと知りたいですか?
人工知能は、組織が生産性と効率を向上させるために活用できる強力なツールです。 インテリジェント プロセス オートメーションの詳細をお読みになり、今すぐお問い合わせください。