【京都会議ハイライト】AI時代に見つめ直す「価値」 根源的問いから議論スタート ――パネルディスカッション その1

 2日間にわたった第1回京都会議では、二つの基調講演のほか、ランチセッションを含む九つのパネルディスカッションと、参加者が丸テーブルを囲んで分け隔てなく意見交換する「ラウンドテーブル」が行われました。京都哲学研究所は参加者の皆さんに順を追って哲学的思索を深めていただこうと、これらの場を六つの進行パートに大別し、議論の指針となるテーマを設けました。パートⅠのテーマは「価値を巡る根源的な問い」です。

Details

「象牙の塔」から語らいの場に 有識者10人、産業界へ論点提示

 パートⅠは「価値とは何か」を哲学的観点から再考する起点です。このため、学術界を代表して10人が二つのパネルに分かれ、意見を交わしました。

 最初のパネルにはトリノ大学(イタリア)のマウリツィオ・フェラーリス教授、東京大学の藤井輝夫総長、梨花女子大学(韓国)のキム・ヘイソク名誉教授、ローズ大学(南アフリカ)のマイケル・ネオコスモス名誉教授の4人が登壇し、東京大学の納富信留教授がモデレーターを務めました。

 納富教授はまず、各登壇者に「価値に関する哲学的議論で最も重要だと考えること」について提起してほしいと提起し、先陣を切って自身の見解を語りました。

 「日本社会では価値について語る時に経済的価値、つまり『いくらになるのか』を考えるようになっています。経済的価値に還元してしまう風潮が蔓延しており、危険です」

 これに続いたのはフェラーリス教授です。

 「現代社会が抱える最も差し迫った問題の解決は、データの管理を5人のアメリカの資本家と中国の1人のボルシェビキの指導者に委ねることではないと信じます。『デジタル・ウェルフェア(デジタル空間の公共福祉)』を創り出さなければ、その先にあるのは『ウォーフェア(戦争)』でしょう」

 フェラーリス教授の発言は、AI開発で覇権を争う米中の暗闘を婉曲したものでした。

 藤井総長も対話型AIサービス「チャットGPT」などの大規模言語モデルが学習するデータに偏りがあり、偏見や差別を助長しているとの指摘を踏まえて「世界には約7000の言語がありますが、そのうち40%には書き言葉がないのです。すべての言語や文化を、私たちが共有すべきモデルにどうやって取り込むことができるでしょう」と疑問を呈しました。

 残る登壇者2人は「普遍性」を軽視する風潮にそろって警鐘を鳴らしました。

 キム名誉教授「価値に関して現代が直面している問題は、ますます価値のない時代になりつつあるということです。この危機は、普遍主義の消失と相対主義、懐疑主義、ニヒリズムの蔓延に根差しています」

 ネオコスモス名誉教授「今日の世界には『思考の危機』が存在します。それは普遍という考え方が危機に直面しているということです」

 国際哲学会連盟の会長も務めるキム名誉教授は、危機を乗り越える方策として出口教授が基調講演で提案した「WEターン」に言及し、今こそ人と人の関係性やつながりを見直すことが重要だと説きました。フェラーリス教授も同調し、「伝統的に象牙の塔であった哲学は、学界の外に出て起業家や一般の人々と語り合うべき」だと京都会議の意義深さを強調。藤井総長は「次回の京都会議にはもっと幅広く一般の方々を招くことができれば」と応じました。

誤答や偏見も潜在するAI 人間の「目利き」で正す

 続く2つ目のパネルでは、AIを巡ってさらに踏み込んだ議論が交わされました。現代美術家としても著名な東京芸術大学の日比野克彦学長と、AIやロボットの専門家3人による化学反応が見どころです。

 日比野学長は、AIがもたらす社会変革の中で「アートの価値」を再発見したと言います。リンゴを一つ置いて、皆でデッサンをしたとしましょう。

 「私の絵が正しくて、あなたの絵は間違っている、ということにはなりません。価値や評価の違い、その間にこそアートは存在します」

 「自分の価値観とは異なるものに対して、許容はしても完全に同意できるわけではなく、わからないものが必ず存在します。しかしアートには、わからないということも受け入れる力があるのです」

 日比野学長はそう語ると、「AIの問題を考えた時、人間とは何か、人間にできることは何か、という問いに対する答えは、アートの価値を符合していくことで見出せるのではないでしょうか」と聴衆に語り掛けました。

 政府のAI戦略会議で座長を務める東京大学の松尾豊教授は、「価値」のバトンを引き継いで話題を発展させます。AI開発に価値観が入り込む余地が多分にあるという論点です。AIにデータを読み込ませる「事前学習」と、AIが誤答を出せば人間が正解を教えるといった「事後学習」。松尾教授は、この2つのフェーズでAI開発者の価値観が反映される可能性があると指摘し、「AIは教育、軍事、採用判断などにも利用可能。その目的が良いか悪いか、当然ながら価値が問われます」と述べて、AIをどう利用するかを考える段階でも価値観が入り込むと付け加えました。

 社会的観点からAI開発の課題を指摘したのがヘルシンキ大学(フィンランド)のカロリーナ・スネル博士でした。医療・ヘルスケア分野でAIを研究するスネル博士は、AIの開発拠点が米国のシリコンバレーに集中していることに懸念を表明し、「(米国の)倫理観や価値観をフィンランドのような福祉国家の社会実践に落とし込むことは非常に難しい」と語気を強めました。

 しばしの議論の後、モデレーターを務めるハーバード大学(米国)の哲学者マティアス・リッセ教授が、4人のパネリストにこう尋ねます。

 「AIが私たちの生活を良くし、正しい方向へ進むという楽観的なシナリオを信じるには何が必要でしょう」

 スネル博士は「時にはノーと言う勇気も必要です。私たちはブレーキをかけることもできるのです」と答え、松尾教授も「新しいテクノロジーをあまりに速いスピードで導入することには、細心の注意を払うべきです。少しペースを落とし、いま何が起きていて未来はどうなる可能性があるのか、もっと時間をかけて考える必要があるでしょう」と述べました。自分そっくりの遠隔操作型アンドロイドを制作したことで知られる大阪大学の石黒浩栄誉教授は「テクノロジーを使ってより良い社会を築くために、どのようなルールが必要かを考えなければなりません」と応じました。

 一方、日比野学長は再び芸術のフィールドに視点を戻して、リッセ教授の質問に答えます。――AIに日比野作品をまねた生成画像を作らせると、中には間違った作風の画像も出してくる。どこが違うのか。それを見つけるのが人間の「目利き」であり、AIの間違いを正していくプロセスこそ重要――。

 日比野学長はそう話すと、AIと人間とのあるべき関係性について持論を述べました。

 「AIが不正解を出してくれるからこそ、正解が見えてくるのです。価値を判断する目利き次第で、これまでにない社会が築かれる可能性があると思います」

Others