近時、地球規模の課題とその達成目標を示したSDGsがますます注目されています。アンダーソン・毛利・友常法律事務所は、法律家として、いかにSDGsの達成に貢献できるかを模索し続けています。 当事務所は、クライアントの持続可能な成長に向けた法的課題をあらゆる角度からサポートすべく、各専門分野における弁護士がSDGsに関する知見を深め、サステナビリティ法務のベスト・プラクティスを目指します。
本特集では、SDGsに関する当事務所の取組をご紹介すると共に、サステナビリティ法務に関する継続的な情報発信を行ってまいります。
本特集の第13回では、名古屋大学大学院情報学研究科の久木田水生准教授にインタビューを実施しましたので、その様子をご紹介いたします。
※インタビュー実施日:2024年8月23日オンラインにて実施
【第13回】名古屋大学・久木田准教授と「AIとサステナビリティ」について考える
(名古屋大学大学院情報学研究科 社会情報学専攻 情報哲学・久木田水生准教授×パートナー弁護士・清水亘)
対談参加者
Q1:経歴と研究内容
清水:本日は、よろしくお願いいたします。AIとサステナビリティについて、ビジネスとの関係も視野に入れながら、お話を伺えればと思います。まずは、ご経歴とご研究の内容を教えてください。
久木田氏:ありがとうございます。大学の学部から大学院の修士課程・博士課程まで、京都大学文学部で過ごしました。もともと、論理学の歴史などを研究していたのですが、論理学とコンピュータや人工知能(AI)とは関連性が深いこともあり、学位を取った2005年頃から、コンピュータやAIに興味を持って勉強を始めました。しばらくすると、AIに関する倫理的な問題が気になり始めました。AIやロボットに道徳的な判断や行為をさせる研究があると聞き、その研究を面白いと感じると同時に、それが本当に可能なのかどうかが気になったのです。その研究者は、計算するかのように倫理的な問題も解けると考えていたようですが、はたしてそれが本当に可能なのか、道徳的な判断や行動を機械に任せることが良いことなのかどうか、という点に興味が湧いてきました。それまで研究対象として扱っていなかったAIやロボットと倫理についての研究を始めたのは、このようなきっかけです。
その後、2014年から名古屋大学情報学部に勤務しています。もともとは教養学部だったので、数学、物理学、工学、社会学、倫理・哲学、美学などさまざまな分野を研究する人たちが集まって、幅広い問題意識を取り扱っています。
清水:直近では、どのような研究をなさっていますか?
久木田氏:はい、情報技術一般の倫理的問題を中心に研究しています。情報技術は、コミュニケーションに関する技術であるといえますが、コミュニケーションも多義的です。情報を伝達するという情報通信の意味もあれば、人間どうしの意思疎通という相互理解やインタラクションの意味もあります。さまざまな意味をもつコミュニケーションの仲立ちをするツールとして、情報技術は、重要な役割を果たしています。
情報技術が進展すれば、人と人とのつながり方が変わります。例えば、Zoomのようなオンライン会議も、特にコロナ禍以降、急速に普及し、一般的に使われるようになりました。コロナ禍によって、人と会うことのハードルは上がりましたが、情報技術を用いればコミュニケーションをすることができます。インターネットやオンライン会議ツール、スマートフォンやソーシャルメディアなどの1つひとつの技術が、人とのつながりにそれぞれ異なる効果を与えるはずです。このような情報技術の進展や活用は、人とのつながり方や、他者に何を期待するかなど人への認識にも影響があるだろうと考えています。AIについても、それが人間関係にどのような影響を与えるかについて、興味を持って研究しています。
Q2:AIとサステナビリティに関する問題(概観)
清水:AIは、これからますます普及すると思いますが、人間や地球のサステナビリティとの関係では、どのような問題があるでしょうか?
久木田氏:サステナビリティには、いろいろな項目があります。例えば、SDGsには、17の目標が掲げられており、サブ項目も含めると170近くあり、すべてを把握している人は多くないでしょう。もともと、サステナビリティという言葉は、経済発展と環境保護をどのように両立させるか、という20世紀末頃から抱かれていた問題意識に関連して使われていました。経済発展を目指して技術開発を進めることは良いことである一方、環境やエネルギーの問題を生じて、いずれは発展が頭打ちになってしまうのではないか、という問題意識です。
その後、いつの間にか、サステナビリティという言葉は、より広い意味をもつようになりました。例えば、SDGsを見返してみますと、実は、貧困や飢餓をゼロにするという視点が最初に来ていて、環境の視点は後回しになっています。
清水:確かに、AIは大量の電力を消費しますので、環境の視点も重要です。
久木田氏:はい、AIと環境という観点では、AIに費やす電力をいかに減らすかが問題となります。また、水の少ない内陸部に存在するデータセンターを冷却するために使われる水の量をどのように削減するか、という問題もあります。AIを普及させるためには、資源やエネルギーの問題を真っ先に考える必要があります。
清水:AIが人間に与える影響はいかがでしょうか?
久木田氏:不平などや格差の問題を挙げることができます。これはAIのブームが始まった当初から懸念され、議論されてきた問題ですが、今なお問題視される事項です。
また、AIは、教育にも関係します。AIは、有効な教育や勉強ツールになりますが、教育を阻害してしまう側面もあります。これは、私たち大学教員にとっては深刻です。学生が生成AIを利用することを防止するのは、とても難しいからです。生成AIが登場する前にも「コピペ問題」がありましたが、コピペであれば、提出物の内容と一致する引用元を調べ、それを学生に示せば言い逃れはできませんので、対処が可能でした。ところが、学生が生成AIを利用した場合には、完全に一致する引用元を見つけることは不可能です。そこで、生成AIを用いた場合には評価されないような課題や、生成AIでは太刀打ちできないような課題をどのように作るか、工夫が必要です。AIに頼りきり、自分で問題解決をしようとしない学生を増やさないような対処方法を考える必要があります。他方で、AIが勉強のための便利なツールになることも事実です。AIを使える人とAIを使えない人との間で格差が生まれる、という問題も懸念しています。
人間との関係では、平和の問題もあります。AIの戦争への利用に関する議論が現実的になってきたからです。自律型兵器に関する議論自体は、2012、2013年頃からありました。しかし、近時のウクライナやイスラエルにおける戦争状況に起因して、AIの戦争利用に関する議論がより現実の問題になっています。
Q3:AIによるバイアス
清水:いくつかサステナビリティに関する問題を挙げていただきましたが、特に重要視していらっしゃる問題は何でしょうか?
久木田氏:2010年代から論じられていますが、AIによるバイアスに関する問題が特に重要と考えています。例えば、司法や雇用においてAIを利用する際には、特に慎重になる必要があります。
ここでいうAIは、ビックデータから人の能力や振る舞いを分析するAIを指しています。このようなAIは、犯罪予測や再犯率の予測などに使われることがあります。AIが登場する前からプロファイリングは行われていましたが、例えば、裁判で量刑を定めるとき、被告人の再犯可能性を考慮することがあるところ、この再犯予測の際にAIを利用することが考えられます。ところが、AIによる再犯予測では、人種などによるバイアスがあり、マイノリティーの方が再犯率を高く予測されてしまう、という指摘がなされています。
また、犯罪が起こる可能性のある場所をAIで予測することも考えられます。例えば、過去、この時期のこの時間帯に、この場所で犯罪があったという事実から、犯罪の発生する可能性が高い場所をAIで予測し、警察などの人員配置を工夫するのです。ところが、マイノリティーや有色人種が多く住む地域については、警察自体が人種に関して偏見を持っていて、特に厳重に警戒し、重点的にパトロールをすることがあります。他方で、富裕層が住む地域では、取締りは緩いです。確かに、貧困層やマイノリティーが住んでいる地域では麻薬や未成年の飲酒などが発見されやすいのかもしれませんが、AIの出した予測によってますます偏見がひどくなり、AIの予測をもとにパトロールをした結果として犯罪行為が見つかった場合には、「予言の自己成就」のようになってしまいます。アメリカではこのようなバイアスが問題視され、AIによる犯罪予測を導入したものの、その後、利用を中止した州もあるそうです。
保険会社のレッドラインも同様です。保険会社は、保険料率を設定する際に、地域ごとに料率の差をつけるために地図上に赤い線(レッドライン)を引くという習慣がありましたが、これが実は人種差別的だと言われたことがあります。AIを使って何らかの区別をするとしても、人種やジェンダーなどに関するバイアスが入らないように注意する必要があります。
ほかにも、ディストピア的SFのような話ですが、個人にフォーカスして犯罪を予測し、罪を犯さないように監視や教育を施す、というAIの利用方法も考えられます。しかしながら、そのような利用は慎重にすべきであり、例えば、先日、EUで施行されたAI規制法(EU AI Act)では、AIを用いた個人の犯罪予測は、非常にリスクが高いとして、禁止されています。
このように、司法におけるAIの活用は、いずれの場面でも、特に慎重に行う必要があります。我々自身がレッドラインを引かないようにすべきでしょう。
清水:雇用については、いかがでしょうか?
久木田氏:雇用関係についても、AIの活用方法次第では、法律に抵触し得ると考えています。大手IT企業が開発した新入社員を選別するためのAIシステムについては、バイアスのあることが問題視され、利用を中止した、という有名な話があります。当該AIシステムには、女性に対して不利な判定を出すバイアスのあったことが判明したからです。当時、エンジニアには男性が多かったところ、機械学習によって開発されたAIシステムは、エンジニアという職種は男性に向いていると判断した結果、女性に不利な判定を出したのです。データとして入力する履歴書に明確に女性であると記載していないとしても、女性のみが通う学校の名称や女性しか参加しないようなクラブ活動などの情報から、AIが応募者を女性であると推測し、新入社員として不適切だという判定をした、といわれています。この件では、開発者ですら、問題の正確な原因が分からなかったので、改修することができず、結局、当該AIシステムは廃止されました。
今後は、人材登用の場面でも、AIの利用が広がっていくと思います。上記のIT企業は、インクルーシブであることを社是としていますが、人材登用のためのAIシステム開発自体を中止したわけではなく、引き続き、慎重にAI開発を行うそうです。 ここで難しいのは、年齢・人種・性別・宗教などを理由に採否や昇進の可否を決定した場合には明らかな差別ですが、AIを使って採用判断をした場合には、実質的に差別的な理由で判断がなされていても、それに気付きにくいことです。例えば、面接の際に動画を撮り、話し方や語彙、ジェスチャーや表情などの特徴を抽出し、自社の優秀な人材と比較するというシステムがあります。日本企業でもこれを採用しているところがあります。このシステムは、会社の中で優秀とされる社員の特徴を学習させ、応募者と比較し、類似する程度に基づきランキングをつけ、選抜するというものですが、大きな問題があると思います。例えば、その会社で優遇されているトップ層が白人や男性であった場合には、そのような特徴に基づいて採否の判断がなされると、その特徴をもつ人が圧倒的に有利になってしまうからです。AIを活用して、単に類似度を測っているのであり、ジェンダーなどの特徴に基づいては判断していないと反論されるかもしれませんが、差別の原因となり得る特徴を明確に基準としていないとしても、潜在的には、そのような特徴が判断の基準となってしまうのです。
清水:AIの出す結論は、AIが学習するデータに左右される、という問題ですね。
久木田氏:別の例として、保育園を経営する会社が開発した、「笑顔度」を判定し、それに基づいて保育士の採否を決めるシステムがあります。このシステムは、応募者が面談時にどの程度笑顔であるかを判断し、一定ラインを超えた笑顔でいる時間を下に、0点から50点の間で採点する、というものです。そのように判定された「笑顔度」とその他の人間が判断した印象を50点ずつで採点し、100点満点で採用不採用の最終判断をするそうです。ところが、例えば、面接官が強い当たりをした場合には、応募者は顔が強張ってしまうことがあるでしょう。逆に、面接官が和やかに会話をすれば、応募者は笑顔になりやすいかもしれません。つまり、面接官によっても、面接の雰囲気は変わることがあります。また、面接中、常に笑顔であれば50点満点になるのですが、面接中に笑顔でいられることが保育士として適切な能力であるかどうかは分かりません。満面の笑顔でなくても、素晴らしい保育士はたくさんいるでしょう。このシステムによれば、面接において笑顔であれば保育士に向いているということになりますが、それはあくまで開発者の主観、先入観に基づくものなのです。
AIを使っているから客観的であるという正当化は、間違っています。AIを使えば客観的になるとは限らないのです。このシステムのような採否決定方法は、制度構築者の思い込みという点のほか、データ学習という過去のデータに基づくことによるバイアス、さらには、運用時に何かしらのバイアスがかかってきてしまう可能性もあり、とても危険だと思います。
清水:AIの出した結論を批判的に検討することが必要ですね。
久木田氏:はい、何らかのバイアスがある可能性を理解してAIを利用しない限り、判断結果が差別的なものとなり、マイノリティーにとって不利益になる可能性が常にあります。私は、基本的には、医療や福祉でAIを活用すること、例えば、困っている人や虐待されている子ども、病気などを発見するためにAIを利用することは良いことだと考えていますが、それらも慎重に行うべきです。特に、データの偏りという観点が重要です。例えば、顔から性別を判断するというシステムがありますが、慎重に開発・活用しない限り、データセットが偏ってしまい、バイアスがかかります。データが豊富な白人男性については正確に判断できる一方、有色人種や女性については正答率が下がってしまう、ということが起きるのです。顔から病気を診断するAIを開発・活用する場合にも、データセットを慎重に作らない限り、マジョリティーの役には立っても、マイノリティーの役には立たないものとなってしまい、結果的に、社会的不平等をさらに広げてしまう結果にもなりかねません。
そもそも、病気に関する情報自体、センシティブなものですので、慎重になる必要があります。以前、あるエンジニアが、AIや機械学習に関するセミナーに参加した際、自閉症の人の顔のデータセットを用いて自閉症か否かを判定するシステムを作成し、これを投稿したブログが炎上したニュースがありました。当該セミナーを開催した企業にも批判が向けられました。システムを作成する自由はあるでしょうし、オープンなデータを用いて学習させること自体は許されると思いますが、そのことがもたらす帰結まで考えるべきでしょう。特に、センシティブな情報を学習に用いたAIシステムを、正確性が不明なままで軽々しく作成し、一般人が簡単に利用できるような形で放置すると、情報を利用された人たちの不利益になることがあります。現在では、プラットフォームやデータセットの普及によって、簡単にAIシステムを作成することができる状態になっていますが、そのようにして作成されるさまざまなシステムが、社会的弱者にどのような帰結をもたらすかについて、想像力をもって行動して欲しいです。
清水:「逆は真ならず」とでもいうのでしょうか。あるデータが客観的には事実を反映しているとしても、それを用いてシステムを作成すると、一部を誇張する結果になって、バイアスを助長することもあるのではないでしょうか?
久木田氏:はい、何かしらの誤謬のようなものがあると思います。例えば、AIがある集団を分析した結果として8割の人に暴力的傾向があるという情報が得られた場合には、当該AIは、その集団について、8割が暴力的であると判断することになります。これは、統計としては正しいかもしれませんが、その推論を全体に広げた場合にも本当にそれが妥当するのかがまず1つの問題です。もう1つ重要な点は、仮に8割という割合の情報が正しいとしても、その集団中の1人が8割の確率で暴力的であると判断することは、統計的には正しいかもしれませんが、それが公平であるのかどうかは分かりません。つまり、8割の確率で暴力的である、というのはprobableな判断かもしれませんが、法や倫理にかなったjustな判断かどうかは分かりません。たとえAIの判断にある程度の精度があったとしても、ある特定の文脈において、AIの出した結果に基づいて行動することが正しいとは言い切れないのです。
先ほどお話ししたとおり、AIは戦争にも利用されています。例えば、イスラエルは、ガザ地区の住民がハマスの工作員であるか否かを探るために、AIを用いたシステムを利用している、という記事を読みました。AIの判定結果として、9割程度の正答率があるそうですが、逆にいえば、1割は工作員ではなかったのです。にもかかわらず、イスラエル軍は、9割の正答率があれば統計的に正しいのであるから、残りの1割は誤差であるとして、AIが工作員と判断した人を全員殺害しているそうです。確かに、9割の正答率であれば統計的には正しいといえるのかもしれませんが、それをもとに人を殺害してしまっていいのかというと、これは相当おかしなことだと思います。
Q4:少数者への配慮
清水:とても分かりやすいお話です。つまり、AIの判断は、すべての文脈において妥当するわけではなく、また、少数者には常に配慮すべき、ということになりますでしょうか?
久木田氏:そのように思います。多くの場合、テクノロジーは、当然、社会全体を良くする、という意図のもと開発されます。ただ、その社会の改善を考えたときにまず目に入るのは、マジョリティーです。AIであるか否かを問わず、エンジニアは社会貢献としてテクノロジーを開発していますが、見逃されてしまう少数者は必ずいることを考える必要があると思います。例えば、VR(Virtual Reality)を体験するためにはVRゴーグルを装着しますが、体の動きと見え方が上手く同期しなければ、VR酔いになります。初期の研究では、男性の方が女性と比べてVR酔いをしにくいとされていました。ただ、実際には、単にVRゴーグルの大きさの問題で、ゴーグルが男性を念頭に作られていたために、女性にはゴーグルのサイズ感が合っておらず、VR酔いになりやすかった、という原因でした。よくある話ですが、どのような人にとって良いテクノロジーであり、どのような人にとっては効果的でないテクノロジーなのかを気付くことができないのです。テクノロジーの開発時にユーザとして利用する人を最初に設定したならば、それに含まれない一定の人たちが見逃されてしまうことに、十分気を付けるべきでしょう。
ところで、Virtual Realityを日本語でいえば、「ほぼ現実」という意味ですが、この表現にも問題があります。現在のところVRは、主に視覚や聴覚に訴えるテクノロジーですから、それをVirtual Realityといってしまうと、視覚・聴覚障碍者の方は、現実を生きていないことになってしまいます。障碍者の方を無視して、「ほぼ現実」だということは、視覚・聴覚の健常者の傲慢であり、そのような事態に気付くべきです。もちろん、視覚情報は多くの人たちにとっては重要であり、そこに着眼するのは無理もありませんが、障碍者の方々に対する気付きや配慮も必要です。これは、私がメタバースに関するオンライン・シンポジウムを開催した際に、聴講者の1人であった視覚障碍者の方が指摘してくださったことなのですが、とても重要な点であり、私自身も納得しました。テクノロジーを開発する側は、たくさんの人に利用してほしいという意図で開発しますから、まずマジョリティーに目が向くのは仕方ないことではありますが、少数者への配慮という視点を忘れてはいけないと思います。
Q5:今後の研究や取組
清水:ありがとうございます。非常に興味深いお話を伺いました。最後に、先生の今後のご研究や取組などがあれば、お教えください。
久木田氏:現在、大阪大学の石黒浩先生を中心とする、アバターの開発・活用プロジェクトに参加しています。このプロジェクトは、遠隔操作されるアバターを活用し、誰でも空間や時間、身体といった制約を超えて活躍できるような社会の実現を企図するものです。私は、アバターに関連する倫理的問題・課題を考えるグループに所属しています。
今後、アバターやロボット、VRなどが普及すると、我々は、身体に縛られずにさまざまなアイデンティティをもつことができるようになり、人間が変わっていくと思います。例えば、バーチャルな世界では、物理現実ではもつことのできない多様な身体をもつことができます。また、リアルな人間関係だけでなく、バーチャルな世界での人間関係を築くこともできるようになります。面白いことではありますが、その反面、大変な部分もありますので、考えていきたいと思います。 倫理学の観点からは、VRやロボットに対して否定的なリアクションが多く、例えば、バーチャルの関係は本当の関係ではないとの批判を向けられることもあります。私としては、バーチャルによって生きやすくなる人がいるのであれば、批判は当てはまらないと考えています。コミュニケーションの手段や相手が多様化することによって、逆に孤立を深めてしまったり、バーチャルに依存したりするという問題も生じることはありますが、テクノロジーを利用して、人間関係を豊かにすることもできるはずです。これはアバターやメタバースに限りません。
もう1つ、インターネットやソーシャルメディアは、より良いものになるはずであるにもかかわらず、いまだ良いものになっていない、と考えています。生成AIも、それ自体素晴らしくはありますが、上手く活用されていない、と考えています。私自身は、人間が新しいテクノロジーを使う知識や理解などのリテラシーを深めることに貢献できるのではないか、と思っています。インターネットやソーシャルメディア、AIなどを使いたい人は使い、使わない人は使わないで良いとしつつ、人々がそれらを使うリテラシーを身に付けるにはどうすればよいか、また、何がこれからの時代のリテラシーなのかを考えて、世の中に発信していきたいと思っています。
清水:素晴らしい取組だと思います。ぜひ引き続き、お話しさせてください。本日は、ありがとうございました。