
2022.12.29 放送分
【責任あるAI】AIの責任に企業はどう対応するのか?
第112回アートリーアカデミア
THEME
【責任あるAI】AIの責任に企業はどう対応するのか?
テーマ
責任あるAI
AI技術の進化に伴い、企業の中での利用が急増しています。しかし、その普及には様々な課題や責任が伴います。AIの判断による結果にはどれほどの責任を持たせるべきなのか、そして企業はその責任にどのように対応しているのか。実際の企業の取り組みや事例をもとに、この問題について深堀りし、アートリーアカデミアでは、どのような答えを見つけたのかをご覧ください。
TOPICS
フリップ解説
- 佐藤
- さあ、今夜も始まりました、アートリーアカデミア。
- 井戸
- 本日のテーマは、AIの責任に企業はどう向き合えばいいか。さっそくフリップを見ていきましょう。責任あるAIの五つの行動原則の資料となっています。TRUSTになるように作られてまして、上から、信用できる。安全、誠実、多様な視点。信頼できる。より深い判断と、よりよい意思決定を可能に。理解できる。解釈可能で透明性のある意思決定。安全が保たれている。会社や顧客の情報・データのプライバシーとセキュリティ確保。ともに学び合う。人と機械での共創、相互の情報提供、相互教育を目指した人間中心のデザイン。というふうになっています。
- 蒲生
- SDGsの取り組み自体に、AIを作ってる会社が、責任あるAIの取り組みっていうのを近年ホームページでいろいろ掲載をし始めていて、こちら側のアクセンチュアのホームページに載ってる、私たちはこういう理念、基本行動のもとAIを作りますよっていうふうなことを書いてありまして、というのは、今後、より企業が意思決定をするのにAIの情報を参考にしていくということが加速するにあたって、そちらが意図せず企業や個人に悪い影響を及ぼしてしまう可能性がAIの答えによってはあるといったところで、そこの潜在的なリスクを緩和させるためにAIを提供する企業は、こういう責任のあるAIを作りますっていう基本原則を公開し始めてっていうようなお話ですね。
- 佐藤
- それで言うと、これはアクセンチュアが出してるってことだよね。
- 蒲生
- そうですね。
- 佐藤
- じゃあ企業によって内容変わるっちゅうことだよね。
- 蒲生
- 変わってきます。
- 佐藤
- これどうですか、先生。
- 原
- どれもが大事だし、AIってロボット三原則みたいなものがイコールだと思うんだけど、大事なのって、人に害を与えないっていうところをどこまで落とし込むかなんだと思うんですよね。AIでは、知識だったり経験値のところを反映させるじゃないですか。そうすると、どこまでこれがAIとして出した答えとして正しいかどうかって、多分無限大に広がるはずなんですよ。でも、そこに一つ、人に害を与えないっていうところを加えないと、多分ここの安全が保たれるの、訴える角度によって違う表現に変わるっていうところもあったりするから、そこら辺が大事じゃないかなとは思いますけどね。
- 佐藤
- これどうですか。テクノロジーとして見たときに。
- 久田
- AIが汚染される可能性があるっていうところは、やっぱり怖いというか、AIって人間が想像できないところまで計算して出してくれるっていうところに信頼があるけど、勉強させる内容に、例えば悪意のある人間が悪意のある内容を入れたときに、出てくる結果っていうのが透明性がない状態だと、汚染されてるかどうかもわからない。それを信じた結果を使ってしまうと、悪意のある人に左右されてしまうというか、誘導されちゃうっていうところは怖いとこなのかなと思うんですけど。
- 佐藤
- AI同士の攻撃もあるもんね、恐らく。
- 久田
- AI同士?
- 佐藤
- 多分やってると思うけど、AIを機械学習させていくうえで、人は、もちろんディープラーニングさせていくとこもあるけど、結局、教育用AIを作ってAI同士の対話によってAIを高めていくっていう、それは合理的じゃん。
- 原
- それぞれ違う積み重ねのところでって。
- 佐藤
- そうそう。そういうときに、今、人って話したけど、人でアクションを起こしていくのはあれだけど、例えば中国がシリコンバレーのAI関係のところに、要はオープンにしてるところに対して、学習させているようなところにAIとして攻撃していくみたいなっていうことは、結構簡単に想像できるなっていうのもある。だからAIっていってんだけど、基本的には人間で言うと何歳児ぐらいの、要は子どもを育てるのと一緒の感じだから、AIって。ただ、AIだから分岐させていくっていうこととかもできるしっていうような。だから、基本的に子どもを教えるのと一緒だよね、こういうふうに教えますよみたいな。だけどAIっていうと、一般的な消費者だとか利用者は、それが正しいものなんだっていう感覚値としてあるから、だから作り手っていうのは、そこに対して責任が伴うよって話なんだね、これで。
- 蒲生
- こちらフリップ。言葉足らずのところを補足さしていただきます。信用できる。こちらは民族差別、性差別、文化差別のない公平性のあるものを作るというところと、信頼できるっていうのが、人間が予測しない動きをしないというか、予期しない事態にAIが暴走するなんてことはあってはならないっていうようなところ。この理解できるっていうのは、さっき七菜子さんも言ってたように、AIをシステム構築するうえでのプロセスっていうのがある程度わかって、理解してもらえるような内容を開示する責任がある。Sはそのままですね。個人情報の保護。Tは、すべての人にAIの技術に利点がもたらされるような配慮を作るっていうようなところで、こちらのTRUSTを踏まえて、責任あるAIの実現に向けて、さらにこうしていきますよっていうのはアクセンチュアの例で、次のフリップにございます。
- 井戸
- 責任あるAI実現に向けた四つのアプローチの資料となっています。STEP1が、AIの利用目的、開発・検証・展開において、人間を中心とした意思決定が求められ、その行動指針としてAI倫理が必要。AIが信用・信頼できるかどうかを判断するためには、その開発においての公平性及び透明性が必要。STEP2、四つのアプローチ。技術、ブランド、ガバナンス、組織・人材。STEP3、責任あるAIへということですね。
- 蒲生
- これSTEP1が前のフリップで、STEP2の四つのアプローチのお話をいたしますと、責任あるAIを作れる企業は、この四つのアプローチをする必要がありますと言っており、一つ目は技術。まあ当たり前ですよね。技術の向上が必要となっており、二つ目のブランドは、企業のイメージアップがその企業が作るAIのイメージアップにもつながりますのでっていったところと、ガバナンスっていうのは、先ほどAIとAIの中にも人のモニタリング、ディープラーニングが必要だよっていう、人が定期的にモニタリングをすることによって倫理性を保つっていうようなところと、組織・人材っていうのが、研究者が例えば3人だけで作ってた場合、3人の価値観でものを作ることになるから、そこに一般人、AIとかそういうの詳しくない人とかも入れてって、きちんとした人間味のあるものを作る。研究者の偏見によって偏っていく開発をしてっちゃいけないっていうようなところが四つ目。この四つをアプローチすることで、責任あるAIを作れるというふうに言ってますね。
- 佐藤
- だから作り手に寄っちゃうから、こういう文化を出してるけど、逆に言うと、これを出してるからこそ、うちのAI大丈夫だよっていうところで使ってねっていう、ユーザーを集めていくための、要は一つのマイルストーンになってるし、とかね。だから、市場競争として有利に働かせるためにこれを出しているっていうのが前提ってことか、要は。これはどうですか、渡邉さん。何か聞きたいことっていうか、質問とか。
- 渡邉
- 責任あるAIっていう言葉は、最近出てきた言葉なんですか。
- 佐藤
- これどうなの?最近?
- 蒲生
- 最近ですね。
- 渡邉
- それは何か弊害があって、やっぱりこういうのを突き詰めていこうってなったんですか。
- 蒲生
- そうですね。最近、近年ですね。だから大きく言えば、これは人工知能、アーティフィカルインテリジェンスのことなんですけど、今チャットボットの拡張機能のほうで、チャットボットとかの回答とかも、いわゆるAIといわれてはいるんですがっていったところで、今ダイバーシティ、いろんな価値観を受け入れていこうぜっていうような流れにおいて、反してるAIっていうのがちょこちょこ出てきてるから、こういう保証書じゃないけど、共通のガイドラインを作って、そこに向かって世界中、企業が、研究者たちが意識してってくださいねっていうような流れになってます。
- 佐藤
- そういう流れってことなんですね。だから市場競争のうえでっていうところなんだ、企業が取り扱うAIとしては。だからサービスと違うところのAIに関しては、もしかしたらスパイAIみたいなやつとか、それこそ最近、ああいう迷惑メールだとか攻撃が増えたのも、ばりばりに多分AI活用してるんやんか。そういったところに関しては恐らくだし、もっと言うと、SNSなんかもAIでコメントつけとるよね。
- 原
- そうなの?
- 蒲生
- そうですね。
- 佐藤
- だからTwitterとかなんか、だってこの間、イーロン・マスクがカミングアウトしたとき、誰だったかは知らんけど、Twitterの中の広報部の人間たちがあおっとったらしいもんね、ツイートを。結局、要は盛り上がるように。だからTwitterも自社のあれとして私たちのメディアだっていうふうにうたってるから、戦前の新聞と同じような状況で、ポリシーとして。だからTwitterで炎上するようにとか、そういうふうにあおるように、要は広報部の中の人間たちもサクラでそれやってたらしいんだよ、Twitter、人為的に。世界的にやってた。だからTwitterジャパンでも280人いたところを200人カットして80人しか残っとらんかったとか、ほとんどTwitterの人員って、そういうかたちで広報の人間が多かったらしいんだよ。だから踊らされとったわけよ。
- 原
- 炎上がって言ってるのも炎上を、だからそこで炎上させてたって話なんだね。
- 佐藤
- しかもさらに言うと、要は人じゃないとそこはコントロールできないところだから、人でそこの部分の肝になる部分のかたちで炎上させて、TwitterでそうやってとかLINEとか、ああいうのでニュースサイトで話題になったとかっていうと、みんなそれ見るじゃん。だから、そうやって炎上させてたっていうのがあったんだけど、だからそういうものも、それTwitterの話だけど、もっと言うと、AIとかで、あおったりだとか攻撃的だとか、そういうふうなものを利用してたんじゃないのかなって、現在進行系でも多分利用してんじゃないのかなっていうふうに俺は思う。
- 原
- だったらなおさら、これちゃんと見せないかんちゅうね。
- 佐藤
- 見せなあかんのだけど、これってあくまでも多分市場競争するうえで、例えばさっき言ったチャットボットとか使ってもらううえで、うちのチャットボットは変なこと言いませんよっていうことの保証書としての、これの在り方として出してるじゃん。だから、要は世の中にはびこるすべてのAIは、すべてみんな善意のもと、これで運用していくわけじゃないから、結構そこの部分は気をつけてく必要があるっていうか。だから、すべてのAIが、そういうもの出してる会社だからこのAIも大丈夫だろうっていうわけじゃないのかなっていう、わからんよっていう話。あくまで自分とこで発表しとるだけの話だから。
- 原
- そういう話だよね。誰かが認証してるわけじゃないもんね、そこを。
- 佐藤
- どっちかいうと、今、消費者がどう向き合うかの話だったけど、本質的には企業と。今回のテーマとして一回見てみましょうか。
TOPICS
テーマ討論
- 井戸
- AIの責任に企業はどう向き合えばいいかですね。
- 佐藤
- これどうですか、原さん。
- 原
- 私、AIの責任って、AIに要は学ばせるわけじゃないですか。根本にあるのは、会社の企業倫理っていうところが基本になるんじゃないのかって思うんです。要は、会社が間違った考え方、価値観を持っていたら、それがそのままAIに反映しちゃう。それは意識、無意識にかかわらず表面に出てしまうものなので、だから、ここをきちんと、それこそAIはもっともっと増えると思うんですよ、どの会社でもね。ってなったときに、今一度、どの会社もAIを利用する会社であれば、自社の企業倫理を見直すいい機会なんじゃないかなって私は思うんですね。
- 佐藤
- 逆にね。
- 原
- はい。
- 佐藤
- AIの責任っていう、AIにまつわるポリシーの在り方っていうものを続々とAI関連の会社は出している。社会情勢を受けて、もっと本質的には企業の在り方としてのポリシーを示していかないといけないよねっていう時代になってるからこそ、きっかけとして、企業はそこに向き合ったほうがいいんじゃねえの?っていう、AIだけにかかわらずっていうことだよね。
- 原
- そうですね。
- 佐藤
- でも、これって背景としてはSDGsだとか、そういうものの流れがあるんかね。
- 蒲生
- そうだと思いますね。競争社会。
- 佐藤
- だからあれも競争社会で、企業が考えてることをどうやって共有していくかとか、当然それもあるし、SDGsを出さなきゃみたいなところから、要は企業が何かしら自分たちのポリシーだとか考えてることを出していくっていう、そういう文化が生まれたんだよね。だって、今まで出していきましょうなんていうの、どっちかっていうとなかったもん。
- 原
- どちらかというと、だって企業イメージだけを先行させてたじゃない?
- 佐藤
- あとは法的なもので特商法だとか個人情報の取り扱いだとか、そういうものは出してたけど、率先してわれわれはこういうポリシーで考えて企業を運営してますとか、サービス運営してますとか、人材を集めてますとか、そういうことだよね。ブランドもそうですもんね。アパレルブランドとかでも、サステナブルに対してどうとか、
- 原
- 表明してますね。
- 佐藤
- スターバックスとかでも、要は生産地に対しての部分とか。だから結局SDGsからの全部流れなんだね。
- 蒲生
- だからAI作ってる3社があって、A社、B社がこれ出してたら、C社出してないとA社、B社のほうが株が上がりますよね。C社も言わないといけないしっていうようなところ。ステークホルダーだったり、株主だったりっていうのに対して、これをやっていくのが普通だよねっていうSDGsからの宣言。ともにくっついてくるようなかたちですよね。
- 佐藤
- これもAIの責任でも、要は、出してる発表の中でも優劣ってあるのかね。個性っていうか。
- 蒲生
- さっきTRUSTって書いてありましたけど、あれ別にTRUSTって書く必要なくて、アクセンチュアのああいう見せ方で、個性ありますよ。
- 佐藤
- だからアクセンチュアに関しては信頼っていうところに、逆に言うと、信頼おけるAIを、開発を志してるよっていうことなんでしょ?
- 蒲生
- そうです。AIの倫理性をいかに人間に近いようなかたちにするかという倫理っていうキーワードが題目にあって、それに対してこうやってますっていうようなところですね。
- 佐藤
- それでいくとアクセンチュアはBtoB企業だから、企業からの信頼を得るって、AIを企業に提供するのはメインのビジネスモデルなので、だから信頼っていうところをテーマにしてるんだろうね。
- 原
- じゃないと成り立たないもんね、アクセンチュアの場合は。
- 蒲生
- だからマイクロソフトの責任あるAIの取り組みとかだと、研究、開発、導入のすべての工程において研究者とは別に一般人の人も参加させて、まともな感覚が置いてきぼりにされないように納品までやっていってますっていうのを、おっきい声で言ったりしてますね。
- 佐藤
- だからユーザーを持っている企業だからこそ、ユーザーの意見っていうところを大切にしているよっていうアピールをしているってことですね。
- 蒲生
- 開発から、ユーザーのレビューを聞きながらやってますよね。
- 佐藤
- どんどん、このまた流れが出てくると、責任あるAIだけじゃなくて、責任ある生産とか、責任ある経営とかなんかも、
- 原
- どんどん出てきそうだよね。
- 佐藤
- むちゃくちゃ出てくるよ、でも。だし、それを出したほうがまた競争力高まるんじゃね?みたいなのを思っちゃってる自分もいるし。
- 一同
- (笑)
- 原
- どうやって表明しようって、何て表明しようっていう話になるじゃん、これ。
- 蒲生
- これ多分、今、作る責任なんですけど、10年後は使う責任っていうのも出てきて、だから長いと思いますよ、この話題は。
- 佐藤
- この流れ長いよね。だって作る責任、使う責任ってSDGsでも言ってるわけだもんね。
- 蒲生
- そこからAIの、とりあえずまだ作っている状態っていうところですね。
- 佐藤
- これどうですか。意見ありますか。質問でもいいけど。この際、AI。
- RYUICHIRO
- AI、安心したいってことですよね、多分ユーザーっていうか。
- 佐藤
- ユーザーがそうじゃない?
- RYUICHIRO
- ですね。
- 佐藤
- だって、例えばさっきの収録で話した、Siriで子どもたちが向かってしゃべってるって言ってるわけじゃん。親からしてみたら、Siriと話してるってことはSiriから影響を受けるわけじゃん。そしたらSiriってどういうコンセプトだとか、どういうあれでやってんのかって気になるところじゃない?こういうのは一切排除してますとか、子どもたちの悪影響になるものはしませんとか、子ども向けのAIっていうところですごく特化して、子どもの、要は脳のあれがとか、倫理だとかああいうのを、よき友達であり、よき先生でありみたいな。としてのAIを目指してますみたいな感じでうたうと、子どもに、もしああやってしゃべらしてそういう文化だったら、そのAIじゃなくて、こっちのAIを使いなさいよっていう、ちょっと意識の高い教育の家だと、そういうふうになることない?
- 原
- 出てくると思う。ただ、文字とかで読み取ってAIが認識しますで返ってくるならいいんだけど、Siriとかは言葉で言ったことを言葉で返ってくるじゃん。だから正しい言葉を使う側もやらなきゃいけないわけよ、投げる側も。今おっしゃられたこと本当そうだと思って、間違った表現の仕方をしていく人間が増えれば出てくる答えは絶対違うものになってくるっていうことは認識しとかなきゃいけないことだと思うんですよ。これすごく怖いなと思って。
- 佐藤
- だから特にアルファ世代とか、さっきの話だとアルファ世代。先週か。話でいくと、アルファ世代がもろにAIに影響受けてく世代なわけじゃん。それは、そういうの出してかなきゃいけないし、いや、iPhoneは、Siriだめだから使わせないとかなってくると、シェアに響いてく話になってくるもんね、結局は。逆に言うと、Appleもそういうのをちゃんと出してるだろうけど、信頼はできるAIだから、やっぱiPhoneだねみたいな話になるかもしれないし。
- 久田
- 倫理だけ切り分けられないですかね。AIも育て方によって個性が全然違うわけじゃないですか、こっちの分野に特化してるとか、こういう処理が得意とか。それを使いたいけど、自分のニーズと倫理が合わない場合が出てくるじゃないですか。だからパソコンのセキュリティソフトみたいに、この倫理を入れたいとか、逆に、うちのAIはこの倫理を採用してるみたいな。倫理自体を切り分けて、この倫理はこういうふうに育ってて、これをベースにうちの個性はこれで育ててるみたいなのが出てくると、AIの選択の幅が広がるのかなっていう気がしますよ。
- 佐藤
- だから掲げてる倫理って、そうなってくると、どっちかいうと企業的なふうになってくるよね。だって倫理がAIによって変わるっていうことはないわけだから。結局言ってることっていうのは大体当たり前のことなんだけど。だから今そういうふうな言われ方してるから、アクセンチュアに関しては、どっちかっていうと倫理プラス、TRUSTっていうところでやっちゃっとるわけ。だからSDGsをプロモーションと言ってるようなもんだ。実質、だけどそうじゃん。でも、プロモーションとしてまずは取り組んでるんだけど、本質的に次の世代っていうのはSDGsとかを活用してって、例えば、基本的に競争社会ですと、っていうふうな目的で今やってますと、社会的にムーブメントとしてあるじゃん。だけど俺らの場合は、例えば、それこそジェネレーションYとかXとかなってくると、どっちかいうと競い合うほうの競争社会で生きてるから、いきなりみんなで作ろうって言われてたって、わからんじゃん。だけど、それは競争するうえでの競争っていう言葉を使ってプロモーションとして活用していくじゃん。だから、それをうたってる人たちは、うそなのよ、本質と本心と。
- 原
- だって差別化を図りたいんだもん。
- 佐藤
- だけど、それで世の中って本当によくなっていくのかの話になってくるんだけど、要は社会に影響を受ける次のジェネレーションの子たちはそれを本当に信じて育つから、だから俺らの世代っていうのはそういうふうな感じになるんだけど、次の世代、またさらに次の世代とか、本当に世の中がよくなっていく。だから、実はうそにまみれた世の中だとか、汚職だとか、そういうものがある中でも、そういうふうにやっていくんだけどっていうことをうたってて、そんなのきれい事じゃんみたいな感じなんだけど、次の世代には、きれい事じゃなくてそれがちゃんと伝わってるから、世の中は少しずつよい方向に向かっているっていうっていうのもある。
- 久田
- 美しい。
- 井戸
- 美しい話だった。
- 一同
- (笑)
- 井戸
- 感動してた、一人。
- 佐藤
- だから、俺らは今この場ではプロモーションだとか、責任あるAIとか言っちゃってんだけど、その次の世代だとか、今AIを体験しようとしている、それで育とうとしているアルファ世代たちは、本当にその人たちにとっては、その人たちの倫理観になる。だからプロモーションだろうが何だろうが、それは結果的に生まれる利益であっても、でも同時に未来につなげてくっていう意味では、こういうのはちゃんと打ち出していく必要があるし、そのとおりに行動していくことは必要なのかなと。建前でやっとることっていうのが、いつかそれが本物になっていくときがくるから。
- 原
- だから本質のほうに向かっていくということだね。
- 佐藤
- そう、時代を超えればね。だって今の子どもたちは、それが要はパチもんだとか、うそとか、汚いものを見たと思って見ないわけじゃん、真に受けて育つわけで。だから世の中はよくなっていくんだっていう話、結局はね。
- 井戸
- いい話。ひとしきり感動してた、今。
- 一同
- (笑)
- 佐藤
- これアカデミアじゃなかったかな。どこで話したんだっけ。
- 井戸
- お願いします。
- 佐藤
- じゃあ本日のソリューションはこちらです。未来の世界と向き合おう。AIの責任っていう、今、端的に見たらそういうことかもしれないけど、それを掲げた、実行していった、それで発展していった世界を描いて、今、企業はAIの責任、未来がAI、これからは未来だからAIっていうふうに発展していく世界。だからそういう未来に向けて、よき未来を作っていけることを描いて、今のAIの倫理観、責任っていうところを発表していくっていうか、出していけばいいんじゃないのかなと思いました。
- 井戸
- ありがとうございます。美しい会だった。
- 佐藤
- (笑)
- 原
- すげえ心を洗うような感じの話じゃない?ごめんなさい、私とは真逆の感じだから、すげえきれいな話を聞いた感じになるんで。
- 佐藤
- うそにまみれた世界が、ちゃんと次のジェネレーションでは、うそはなくなっている世界になっているっていう話なのね、結局。
- 原
- だといいなと思いますね。
- 佐藤
- うそでも、そういうことを掲げてるっていうことが重要だから。
- 原
- 本来どうあったほうがいいんだよねって言える社会だって話だね。
- 佐藤
- だからSDGsとかでも本当に変えていこうとか、温暖化どうとかこうとかって、今を生きてるから、われわれ、今をそんなふうに変えれるかよって思うんだけど、だけど、当事者が自分たちじゃなくて未来の子どもたちだとか未来の人たちになってくると、の人たちのためにそれをやってるんだって思えば、自然とそれがきれいに受け止めてやれるようになってくる部分もあるよね。
- 原
- だと思うな。
- 佐藤
- 。
- 井戸
- ありがとうございました。来週以降の放送は、こちらのとおりとなっています。また木曜日の夜10時にお会いしましょう。次回もお楽しみに。
- 佐藤
- 最後までご視聴ありがとうございました。さよなら。
番組の感想をシェアしませんか?
みんなに共感を広げよう!
RECOMMEND おすすめ番組
CSV経営で社会貢献が経営の中心に?社会貢献と収益性を同時に追求するには
2024.04.18 放送分
グリーンオーシャン戦略で開く新たな市場!社会課題をビジネスチャンスに変えるには
2024.04.11 放送分
2030年、ビジネスケアラー対応が問うもの!介護と仕事の未来図を作って⼈材戦略を強化するには
2023.12.07 放送分
脳の多様性が競争力を生む?ニューロダイバーシティを推進してビジネスを発展させるには
2023.11.23 放送分







