本記事は、ビジネスにおけるAIの動向と日本への影響について、アナスタシア・ラウターバッハ博士との対談の第3回目、そして最終回です。
アナスタシア・ラウターバッハ博士 ポツダムの人工知能、データ、データ倫理の教授であり、起業家、テクノロジー戦略家でもある。国際的な社外取締役であり、英国、ドイツ、ロシア、米国の上場・非上場企業の監督・諮問委員を務める。 言語学の博士号を持ち、ダイムラー、Tモバイル、ドイチェ・テレコム、クアルコム、マッキンゼーといったフォーチュン500社に20年以上勤務している。 技術者ではない人々、特に若者にAIリテラシーを提供することを目的とした会社、AI Edutainmentの創設者。 スイスのルツェルンを拠点に活動。
|
前回の記事では、ラウターバッハ博士とともに、AIの急成長と、それがビジネスにもたらす機会や課題について議論しました。
今回は、もう一つ重要な要素である「AIの規制」について考えます。
どのようにアプローチすべきか、良い(あるいは悪い)政府の規制のあり方とは何か、という点です。
AIは今後の社会において重要な役割を果たすことは間違いありません。特に、B2BやB2Cの分野ではその影響が大きくなるでしょう。
ここ数年、科学者や有識者が署名した公開書簡が発表され、AIの潜在的な危険性について警鐘を鳴らし、政府による何らかの監視を求める動きが見られています。

AIは市民でも有権者でもないが、その所有者は政治的な影響力を持っている。
AIは市民ではなく、投票権もありません。しかし、多くの場合、強い影響力を持つ組織によって管理されており、それらの組織は公然と、あるいは密かに大きな政治的権力を行使しています。
これらの組織は、商業用AIの普及の推進と、規制緩和を望む利害関係を持っています。そのため、個人、企業、テック業界のそれぞれの利害が複雑に絡み合うため、政府がそれを整理し、適切な対応を取ることは難しいこととされています。
ラウターバッハ博士が前回の記事で説明したように、AIに関する政府の対応は、単に「すべての場面で人間の関与を法律で保証する」といった形で雇用を守ることだけでは解決できません。こうした概念は非常に複雑で明確な定義が難しく、「どこで線を引くべきか」が大きな課題となります。
また、ラウターバッハ博士は、AIの規制は業界ごとに適切なルールを策定すべきだと主張しています。例えば、自動車、エネルギー、ヘルスケア、銀行・フィンテックなど、それぞれの業界に応じた異なる規制が必要になる可能性があるとしています。
EUは「欧州人工知能法(AI法)」を通じてAIの規制を試みました。― 結果はどうだったでしょう?
この規制により、ヨーロッパのAI業界は大きな打撃を受けました。その結果、主要なAI企業の約40%がヨーロッパを離れることになりました。

欧州人工知能法(AI法)
私は、AI規制に関して比較的自由主義的な立場を取っています。そして、私の提案は、世界中の規制当局がまだ実施していないものです。
AI企業に対して個別の法律への準拠を求めるだけでは、AIのリスクを解決することはできないと考えています。より包括的なアプローチが必要であり、「AIの安全性と透明性」に焦点を当てるべきです。例えば、説明可能なAI(XAI)のような技術がその一例です。
現状では、この分野への研究開発資金は全体の約2%に過ぎません。
私は、民間のAI企業に対して、大学のAI安全性・透明性に関する研究を資金面で支援するよう求めるべきだと考えます。米国では、大学とAI企業の連携が強い地域で、この仕組みがうまく機能していることが分かります。主要企業のAI担当者の名前を見れば、多くが大学の教授が兼任しており、新たな人材の流れを生み出しています。このような取り組みが、AIの発展を支えるエコシステムの形成につながるのです。
したがって、規制当局は、安全なAI、透明性のあるAI、責任あるAIの科学的・実務的な成果を拡大させることに注力すべきです。
AIの本質的なリスクとは何か?
AIのリスクは、大きく3つのカテゴリーに分けられます。
1つ目のリスクは、「設計ミス」です。
例えば、データサイエンティストが機械学習モデルを構築する際にミスをすることがあります。つまり、モデルの作成過程で発生する人為的なエラーです。これは避けられないものであり、人間の特性の一つともいえます。
この考え方は、1969年にマービン・ミンスキーが著した『Perceptrons(パーセプトロン)』にも記されています。

『パーセプトロン――計算幾何学への導入』(マービン・ミンスキー、シーモア・パパート著、1969年)
この問題は現在も解決されていません。AIモデルには、誤りを犯したり、事実とは異なる情報を生成したりする能力が備わっているのは、本質的なものです。これは設計上の問題であり、システム全体に関わる課題です。
「私たちは偏っているので、バイアスを取り除く必要がある」という言葉をよく耳にします。確かに、バイアスについて意識することは重要ですが、現実的に考える必要があります。
現実的でない対応をすると、例えば、米国の建国の父たちが黒人として描かれるようなLLM(大規模言語モデル)が生まれてしまいます。しかし、これは歴史的な事実を脚色した作品を制作しているわけではなく、正確な歴史を伝える必要があります。歴史的な事実として、米国の建国の父たちは白人男性でした。これは紛れもない事実です。
一方で、Googleはコンピュータービジョンのシステムが黒人の顔を「ゴリラ」と誤認識したことに強い衝撃を受けました。そのため、バイアスを取り除くために懸命に取り組みましたが、解決策に至りませんでした。
だからこそ、私たちはこの分野において、システム的な問題にどう対処するかという点で非常に慎重になる必要があります。
女性と医療研究を例に考えてみましょう。医学には「ジェンダーギャップ」が存在します。この問題は、私自身が女性であることもあり、特に重要だと感じています。そのため、今日から資金を投じて、臨床研究に女性の視点を取り入れ、女性の参加者を増やすことが必要です。そうすることで、治療法が男性、特に若年層の患者のみを対象に開発されるのではなく、女性の身体の特性を考慮したものになります。女性は男性とは異なるホルモンを持ち、身体の構造も異なるため、こうした視点を反映させることが重要です。
しかし、歴史的なデータベースからAIのバイアスを調整するのは難しいですが、どのようにすれば可能なのかは聞いてみたいです。
次は「悪意ある意図」のバイアスです。
仮に、企業がAIを使って差別的な行為を行った場合、それに対応するのはAI関連の法律なのでしょうか、それとも既存の独占禁止法やその他の規制なのでしょうか。私は後者の方だと考えます。犯罪者は犯罪者です。例えば、機関銃を使って建物を攻撃する場合も、ディープフェイクを使って攻撃する場合も、犯罪であることに変わりはなく、その国の刑法によって罰せられるべきです。現在のAI規制ではこの問題に対処することはできません。
最後に、私のお気に入りのトピックをご紹介します。「ヒューマン・イン・ザ・ループ」、つまり人間による制御と人間の判断との整合性です。これは研究対象として投資すべき分野であり、ケースごとに慎重に検討する必要があります。なぜなら、人間と機械の驚くべき協力関係は予測することは不可能なため、すべてに適用できる単一の法律を制定することはできないからです。

「ヒューマン・イン・ザ・ループ」は、成功するAI規制の枠組みにおいて重要な要素となる
現在の航空機はほとんど自動で飛行していますが、乗務員はいつ操作を引き継ぐべきか、そして何が起きているのかを理解しています。時には、パイロットと管制官、そして機械との間でコミュニケーションのミスが発生することもありますが、全体としては安全に運用されています。これこそが「ヒューマン・イン・ザ・ループ」です。
遠隔操作や遠隔医療を行う際には、当然「ヒューマン・イン・ザ・ループ」が必要ですが、それがすべての分野に同じレベルで適用されるべきだとは言い切れません。なぜなら、規制当局がすべての分野の詳細を把握しているわけではないからです。このような規制は、分野ごとに適切な専門機関が検討すべきでしょう。例えば、自動車業界やエネルギー分野など、その領域に詳しい規制当局であれば、それぞれの分野に関する高度な知識を持っており、一般的なAIの専門家よりも深い理解があるはずです。
これら3つのリスクすべてを一度に解決することはできません。(ここではAIと軍事・防衛に関する倫理的問題は除外します)、だからこそ慎重に状況を見極めながら適切に投資することが重要です。経済、特に従来型の産業を活性化させることは非常に重要であり、これらのリスクすべてを簡単に解決することは難しいですが、各国に適した施策を導入することで、安全性と透明性を向上させることは可能です。
では、どのように実現するのか。政府はどのようにAI規制に取り組み、資金を提供するのか。
それは非常に良い質問ですね。税金を通じて行われるのでしょうか。それとも、民間のAI企業に税制上の優遇措置を与えるのでしょうか。
私が避けたいのは、ESG(環境・社会・ガバナンス)に関して現在起こっていることと同じ状況です。長年、ESGはコンプライアンスの観点から非常に重要視されてきました。しかし、トランプ大統領が登場すると、突然その重要性が薄れてしまいました。EUまでもが規制を撤廃し、「もうESGは必要ない」と言い始めています。かつて基準は400万ユーロだったのに、今では4億700万ユーロになっています。これは偽善であり、本来の規制当局が適切に機能しなければなりません。こうした場当たり的な規制の変更では何も解決しません。私の考えでは、人類は自己都合で動く人々を容認する余裕はありません。私たちはコミュニティとして行動し、トップダウン型のリーダーシップではなく、ボトムアップ型のリーダーシップを促進すべきです。そして、このボトムアップ型のリーダーシップの重要な要素のひとつが、AIリテラシーの向上であると私は考えています。
すべての市長は、学校や研究機関など自身の権限の範囲内で協力し、AIリテラシーの促進に取り組むことができます。そして、「私たちの地域でAIリテラシーを向上させるために何ができるか?」という問いを投げかけることが重要です。
例えば、各地域のウェブサイトにAIに関するチュートリアルを掲載するのもひとつの方法です。また、子ども向けのAIリテラシーをテーマにしたイベントを開催することも考えられます。さらに、専門家を学校や大学に招いてAIについて講演をしてもらうのも有効な手段でしょう。こうした取り組みを通じて、地域全体でAIリテラシーを高めていくことができます。
AIやフィンテック業界の幹部が「学校を支援する」という社会的活動を行い、学校へ赴いてAIについて話し、学生からの要望や質問を聞き、次世代の考えを理解することも重要ではないでしょうか。これは非常に価値のある取り組みです。なぜなら、私たちは成人も子どもも不足しており、高齢化社会が進んでいるからです。こうした状況を改善するためにAIリテラシーへの投資を行い、GDPの不均衡を是正することが求められています。

AI業界の専門家が「学校を支援する」という取り組みを行うことができる
日本は、AI規制と民間企業の両面において、海外からの支援を積極的に受け入れる必要があります。
残念ながら、日本の企業は海外に多くの優秀な人材がいるため、英語での業務が必要になるでしょう。また、中国語も有力な選択肢かもしれません。そこにも豊富な経験と優れた人材が存在します。
ただし、文化的な研修や教育プログラムなど、どのようなアプローチが日本にとって最適なのかはわかりません。国としての具体的な方策を慎重に検討する必要があります。
私がこの分野で好きな言葉のひとつに、「窓のない部屋に新鮮な空気を入れることはできない」というものがあります。つまり、積極的に外の世界に目を向け、あらゆる場所から最良の実践を取り入れることが重要です。海外で何が起こっているかを注視し、過去のESGの失敗からも学びましょう。他の時代や他の地域の成功や失敗を糧にし、教訓を活かしていくことが大切です。
本記事は、このシリーズの最終回となります。次回はまた、ラウターバッハ博士にご登場いただき、AIのさらなる興味深い側面や、それがビジネス文化や社会に与える影響について、さらに深く掘り下げていきたいと思います。
著者のご紹介
ウオリック・マセウス

ウオリック・マセウス(Warwick Matthews)
最高技術責任者 兼 最高データ責任者
複雑なグローバルデータ、多言語MDM、アイデンティティ解決、「データサプライチェーン」システムの設計、構築、管理において15年以上の専門知識を有し、最高クラスの新システムの構築やサードパーティプラットフォームの統合に従事。 また、最近では大手企業の同意・プライバシー体制の構築にも携わっている。
米国、カナダ、オーストラリア、日本でデータチームを率いた経験があり、 最近では、ロブロー・カンパニーズ・リミテッド(カナダ最大の小売グループ)および米国ナショナル・フットボール・リーグ(NFL)のアイデンティティ・データチームのリーダーとして従事。
アジア言語におけるビジネスIDデータ検証、言語間のヒューリスティック翻字解析、非構造化データのキュレーション、ビジネスから地理のIDデータ検証など、いくつかの分野における特許の共同保有者でもある。
Copyright Compliance Data Lab, Ltd. All rights reserved.
掲載内容の無断転載を禁じます。