どうなるAI×倫理。MicrosoftがOpen AIに10億ドル出資、ABEJAが有識者団体を設立

社会課題の解決にAIの貢献が見られるようになってきた一方、AIの差別的なバイアスの問題や、判断の善悪を誰が決定するのかなど、倫理的な問題も顕在化してきた。

そのため、日本をはじめ各国でAIに関する倫理的、法的、社会的な側面からの議論が活発化している。AIの開発、利用に関する指針づくりが急ピッチで進められている。

そんななか、Microsoftは7月22日、倫理的なAIの利用を目指すOpen AIに対して10億ドル(約1080億円)の出資を発表した。MicrosoftがOpen AIに出資することで、同社のAI開発における「倫理」を重視する立ち位置をより鮮明にしたといえそうだ。

Open AIのCEO Sam Altman氏(左) と、Microsoft CEO Satya Nadella氏(右)

Open AIとは

Open AIは、イーロン・マスク氏などが設立したAIの研究団体である。汎用的なAI(GAI)が人類の脅威とならないように、倫理的なAIを開発するために誕生した組織だ。すべての人類に利益をもたらす汎用AIを作ることを目的に置いている。

今回の提携に関して、Open AIのCEO Sam Altmanは、次のように述べている。

――Sam Altman
「AGIの創設は、人類の歴史のなかでもっとも重要な技術開発となるでしょう。私たちの使命は、AGIテクノロジーが人類すべてに利益をもたらすことを確実にすることです。そして、AGIを構築するためのスーパーコンピューティング基盤を構築するためにMicrosoftと協力しています。

AGIが安全かつ安全に展開され、その経済的利益が広く分散されていることが重要です。Microsoftがこのビジョンをいかに深く共有しているかにわくわくします」

MicrosoftのCEOであるSatya Nadella氏は、次のように述べている。

――Satya Nadella
「OpenAIの画期的なテクノロジーと新しいAzure AIスーパーコンピューティングテクノロジを組み合わせることで、AIの安全性を常に最優先に保ちながら、AIを民主化することを目指しています」

日本ではABEJAが有識者委員会「Ethical Approach to AI」設立

AIの社会実装を進めるABEJAも7月30日、AIに関する課題について外部の有識者が倫理、法務的観点から討議する委員会「Ethical Approach to AI」(EAA)を設立した。

法曹、学術、文化、報道の分野で活躍する外部識者で構成される。また、同委員会で得た意見や知見を、経営や事業への反映に努めていくとしている。

社内のコンプライアンスにかかわるテーマのうち、「AIの法務・倫理」に関する事項に関して「Ethical Approach to AI」で議論するという。また、客観性、独立性を担保するため、全員を外部識者で構成する。ABEJA CEOの岡田陽介は、個別案件や当社の考えなどについて説明する立場として、討議に参加する。

議論するテーマ、および参加する有識者は以下の通り。

議題

①個別案件への助言や提言
ABEJAの業務で直面するAIと倫理に関連した課題や案件について都度討議、業務の実現や改善につながるような建設的な助言・提言を示していく。

②社内のAI利用原則・行動指針の策定
日本、EUなどのAI倫理指針などの動向や社内メンバーの意見を反映させつつ、ABEJA社内で共有されるべきAIの利用原則と行動指針の策定を目指す。策定にあたっては、現場で働くメンバーと委員が意見を交わす機会を設ける。

③出席者による知見の共有
ガイドライン作りや個別案件の協議に際し、海外の政策・法務の動向、専門の知見に基づく踏まえておくべき視点などについて、委員がスピーチなどで情報を共有。議論のきっかけや判断の参考にする。

有識者

江間有沙氏
東京大学未来ビジョン研究センター特任講師/国立研究開発法人理化学研究所革新知能統合研究センター客員研究員。日本ディープラーニング協会理事/公共政策委員会委員長、人工知能学会倫理委員会副委員長。人工知能の倫理やガバナンスが研究テーマ。近著に「AI社会の歩き方-人工知能とどう付き合うか」など。専門は科学技術社会論(STS)。

三部裕幸氏
渥美坂井法律事務所・外国法共同事業パートナー、弁護士・ニューヨーク州弁護士。M&A・投資・証券発行、個人情報保護、IoT・AI・Fintech などの分野に携わる。総務省「AIネットワーク社会推進会議」AIガバナンス検討会等メンバー、文部科学省「Society5.0実現化研究拠点支援事業推進委員会」委員、内閣府SIP第2期「ビッグデータ・AIを活用したサイバー空間基盤技術」学習支援技術分科会委員。

西村カリン氏
フランス出身。テレビ局などの技術者を経て99年から日本在住。フリージャーナリストを経て通信社の東京特派員。2002年、移動通信技術・サービスの現状などをまとめた「La telephonie mobile」出版。2009年、自著「LES JAPONAIS 日本人」で渋沢・クローデル賞。2013年、フランス政府から国家功労勲章シュヴァリエ受賞。近著に 「不便でも気にしないフランス人、便利なのに不安な日本人」など。

松原仁氏
通商産業省工業技術院電子技術総合研究所(現産業技術総合研究所)を経て、2000年から公立はこだて未来大学教授。同大副理事長。元人工知能学会会長。ABEJA技術顧問。専門は、人工知能、 ゲーム情報学、公共交通、観光情報学。近著に「AIに心は宿るのか」。

山口周氏
独立研究者、著作家、パブリックスピーカー。ライプニッツ代表。電通、ボストンコンサルティンググループ等で戦略策定、文化政策、組織開発などに従事。「世界のエリートはなぜ「美意識」を鍛えるのか?」でビジネス書大賞2018準大賞などを受賞。最新著に「ニュータイプの時代」。

企業の内部で倫理委員会が設置される流れ

これまでにも海外ではOpen AIのほか、

  • Partnership on AI
  • Future of Life Institute
  • AI for Good

国内では

  • 人間中心のAI社会原則検討会議
  • 人工知能学会 倫理委員会
  • AI社会論研究会
  • 慶應大学SFC研究所AI社会共創ラボラトリ
  • 青山学院大学シンギュラリティ研究所

などが、AIの倫理的側面を考える団体として活動を行なってきた。各国の政府も、たとえば欧州委員会はAI倫理ガイドラインを発表するなど、倫理に関する指針づくりが進んでいる。

上記のように、これまでは企業が利用できるガイドライン策定が進んできた。さまざま企業が利用するため、各団体は多様な企業、団体が集まって構成されている。

今回、ABEJAが自社で有識者委員会を設置したことを鑑みると、今後、AI企業が自社で倫理委員会を持ち、自社の案件などで倫理的事象が発生した場合に、個別に話し合って対応する流れができても不思議ではない。今後、そのような流れができてくるのか。引き続きウォッチしていきたい。
Source: AI..