【NEW】ICC サミット FUKUOKA 2024 開催情報詳しくはこちら

【新】人間の仕事はAIに代替されてしまうのか?【SP-AI1 #1】

平日 毎朝7時に公式LINE@で新着記事を配信しています。友達申請はこちらから!
ICCの動画コンテンツも充実! Youtubeチャネルの登録はこちらから!

2016年に配信した、AI(人工知能)に関する議論を総特集いたします。今回は、ICCカンファレンス TOKYO 2016から、AI時代を見据えた問いを第一線の研究者たちが議論したセッションを4回に再編集してお届けします。AI特集(その1)は、AIの可能性と限界から、人間の仕事は奪われるのか?といった点を議論しました。ぜひご覧ください。

ICCカンファレンスは新産業のトップリーダー160名以上が登壇する日本最大級のイノベーション・カンファレンスです。次回 ICCカンファレンス KYOTO 2017は2017年9月5〜7日 京都市での開催を予定しております



登壇者情報
2016年3月24日開催
ICCカンファレンス TOKYO 2016
Session 3B
最先端研究の動向(人工知能 コグニティブ IoA)

(スピーカー)
武田 浩一
日本アイ・ビー・エム株式会社 技術理事

松尾 豊
東京大学大学院 特任准教授

暦本 純一
東京大学大学院情報学環 教授/ソニーコンピュータサイエンス研究所副所長

(モデレーター)
田川 欣哉
Takram 代表

AI(人工知能)の特集記事一覧


登壇者の自己紹介に関しては 「IoTからIoAへ」最先端の研究者が考える人工知能と人間の未来 をご覧ください。特選記事はパネルディスカッションからスタートします。

田川 最初の入り口として、ぶっちゃけAIってどの程度のいわゆる跳躍、あと限界、そこらへんはおそらく、かなりまだら模様なのかもしれないけれども、どう思っていますか?

多分ご自身の中でもまだ不明点があると思うのですが、10分くらい議論をしていきたいと思います。その後ですね、そこから派生する色んなことを議論したいのですが、そしたらまずど真ん中ということで、松尾さんに聞いてみましょうか。

ご著書の中でもここら辺の議論っていうのはかなりされているのですが、過去・現在・未来を考えたときに、そこら辺をちょっと整理をして話して頂けると助かります。

ディープラーニングは万能なのか?

松尾 (パネル冒頭で)ディープラーニングの質問がありましたけど、ディープラーニングが万能みたいに言ったり、ディープラーニングにこれは出来ないんじゃないかという意見もあるんですが、「そりゃそうです」という感じですね。

万能なんて誰も言ってないんですけど….という感じなんですけども、ディープラーニングが一番出来るのは、一番ローデータに近いところでの認識や特徴量の生成が出来るようになって認識が出来るようになるところが一番のイノベーションです。

今までAIにそこだけがごっそり欠けていた部分なんですね。ですからそこが出来るようになることによって、今までAIでやってきたことが次々に本当に出来るようになる世界が来るはずだと思います。

ですから、「自分が持っているデータにディープラーニングを使ってみたんだけど、これが上手くいかない」っていう話は、まあ、そりゃそうでですね。自分が持っているデータは既に特徴量抽出された後のデータなんです。相当考えて作りこんでいるんですね。


松尾 豊
東京大学大学院 特任准教授

1997年 東京大学工学部電子情報工学科卒業。2002年 同大学院博士課程修了.博士(工学).同年より,産業技術総合研究所研究員。2005年10月よりスタンフォード大学客員研究員を経て、2007年より,東京大学大学院工学系研究科総合研究機構/知の構造化センター/技術経営戦略学専攻准教授。2014年より、東京大学大学院工学系研究科 技術経営戦略学専攻 グルーバル消費インテリジェンス寄付講座 共同代表・特任准教授。専門分野は、人工知能、ウェブマイニング、ビッグデータ分析。人工知能学会からは論文賞(2002年)、創立20周年記念事業賞(2006年)、現場イノベーション賞(2011年)、功労賞(2013年)の各賞を受賞。人工知能学会 学生編集委員、編集委員を経て、2010年から副編集委員長、2012年から編集委員長・理事。2014年より倫理委員長。日本のトップクラスの人工知能研究者の一人。

しかも、それをどうやって活用するかも、今まで散々やってきているはずなんですね。

特に、検索の領域とか自然言語処理の領域なんていうのは、さまざまなモデリングが検討されていて、例えばトピックモデルというのもずっと研究されていましたけども、したがってディープラーニングをやったからといって、そんなに急に上がるようなものではないんですよ。

なので、僕が今やるんだったらとにかく画像が一番いいと思いますし、もし自然言語処理に適応するんだったら、今まで長年やってきた例えば翻訳とかですね。

検索とかそういう領域は、もうモデルがつくりこまれているから、ディープラーニングでやろうがそんなに勝てないんですよね。

ですから、よくある研究は、前提知識なしに従来手法と同じくらいの精度が出ましたという研究が多いんですけども、そんな感じなんです。

ということは裏を返せば、今までやられていなかったタスクだったり、今まで評価するのが難しかったタスクっていうのに適応させると、いきなりすごい精度が出る可能性があって、その1つは会話だと思うんですね。

会話のログをたくさん読み込ませて、それっぽい会話を創るというのはあんまりやられていなかった。もちろん研究としてはやられたことはあるんですけど。

なぜかと言うと、評価がすごく難しかった。

ところが、今LSTMというディープラーニングの1つのタイプにたくさんの会話ログをくわせると、いきなりそれっぽい会話が出来てしまう。

そのような今までタスクとしてあんまり出て来てなかったものに、ディープラーニングに適応するのは面白いとは思います。でも、基本は画像だと思います。

田川 なるほどね。今の話は、結構至近の話だと思うんですけど、20年後とか30年後とか、いわゆる2045みたいなところがありますけど、そういうところ、科学者としてのお立場は置いておいて、どう思われますか。

松尾 まず、ロボットががしがし動いているはずです。もうボストン・ダイナミクスとか動いていますけど、例えばGoogleがロボットアームをですね、ピッキングというのを何度か試行錯誤することによって、上手に持てるようになるというのも、(2016年3月24日の)2週間くらい前に動画を出していましたけれども、そういう動作系がすごく向上すると思います。

ですから例えば、調理とか掃除とか、今まで人の認識をすごく必要とするから、人じゃないと出来なかったようなことが自動化できる可能性が劇的に上がってくる、というのが1つ目の大きな変化です。そして、もう1つが自動翻訳だと思うんですね。

【参考資料】
2016年11月にGoogle翻訳が劇的に精度が向上しました。
「Google翻訳が進化 日本語にもニューラルネット適用、自然な訳に APIも公開」

これは、武田さんのご専門でもあり、やっぱり言語の意味理解というのは長年の夢だった訳ですけれども、全く出来なかった。

で、何で出来なかったかっていうと、やっぱりシンボルグラウディング、言葉とその意味内容を紐付けるのが、すごく難しくて出来なかった訳です。

けれども、ロボット系が出来ると、結局視覚的な概念とか運動的な概念というのが、どんどん生成することが出来るので、それと言葉を紐付けることによって、人間ほど完璧ではないにしても、ある程度、言葉と意味を理解するということがコンピューターによって実現出来るようになる。

そうすると、翻訳したり要約したりっていうことが、今までにない精度で出来るようになる、と。僕は自然言語処理のすごい飛躍というのが、多分5年から10年の内に起こるんじゃないか、と思っています。

田川 ありがとうございます。武田さん何かありますか、今の話の関連で。

武田 そうですね、Watsonの研究開発は2006年くらいから始まって、実質2011年2月に(クイズ王との)対戦が放映されましたので、4年間くらいでしたけれども、その短期間で開発出来た最大の理由は、コンテンツがデジタル化されていたということで、IBM自身が解答作成の情報源となるコンテンツを開発しなかったということですね。

当時のWikipediaのエントリーを見れば、 Jeopardy!(ジョパディ:米国のクイズ番組)の質問に出てくる95%の回答が見出し語で存在していたっていうことで、驚異的な情報源です。

【参考資料】
質問応答システム“ワトソン”がクイズ番組に挑戦!

ですので、自然言語処理のそういう変化が本質的で、第5世代のコンピュータ・プロジェクトのときのプログラミングスタイルとか、エクスパート・システムを使ったとしても、30年前であれば、Wikipediaがなかったので出来なかった。単純にコンテンツの処理の部分が大きい。

次に問題になるのが、適切な質問と答えは何かということで、信頼できるシステムをつくるためのトレーニングデータを作成する必要があります。

その場合、例えば医療のケースで言えば、ガンの治療に関する知識を提示できるシステムを作るために、最初の事例では数千時間をかけてカスタマイズして、適切な質問と答えを医師の感覚に合うように分野適合させています。

ですので、現実的な最大の問題はおそらく、多くのケースでトレーニングのデータが無いということですね。



武田 浩一
日本アイ・ビー・エム株式会社 技術理事

1983年日本アイ・ビー・エム(株)入社. 以後,東京基礎研究所にて、自然言語処理,機械翻訳,情報の可視化,テキストマイニングに関するプロジェクトに従事.インターネット向け機械翻訳ツール製品化(翻訳の王様),可視化を利用した情報検索ツール,医療文献テキストマイニングプロジェクト,電子カルテからの知識発見ツール,グローバルなテキスト分析技術の製品化に貢献.2007年12月より,質問応答技術を利用し,クイズ番組で人間の解答者に挑戦するWatsonシステムを開発するグランド・チャレンジ・プロジェクトに参画.2011年同社技術理事.博士(情報学).国立情報学研究所客員教授.情報処理学会フェロー

ラベル付けされたトレーニングのデータが自然言語の世界にあまりなくて、かつ、色々モデル化はしているとしても、属性抽出を何もしなくても、単語の集まりだけでディープラーニングにかけられるかっていうと、そこもちょっとよく分からないところです。

そういった学習データや属性のある程度の抽出が出来れば、松尾先生が言われるように一気に加速するかもしれないです。最近見かけた研究報告として、一番驚異的なのは対話の事例でした。

対話のコーパスがあったときに、コールセンターの会話の事例ですけれども、ユーザーが何かトラブルの話をしたときに、結構適切に人のように質問をしてくるんですね。

使っているOSは何ですか?とか。それは純粋に統計的に出てきた質問なんですけれども、あたかもまるで問題を理解して質問しているかのように見えますし、トラブルシューティングだとか、そういうタスク志向のコーパスがあれば、意外に対話的な応答まで出来るかもしれないと感じています。

ですので、Googleさんのように毎日毎日すごいキーワード・クエリーが入って、クリックログで適切な答えも紐付いているウェブページに、紐付けされた学習データがあるというのは、とてつもないアドバンテージだと思います。

対話にしても、データサービスを通して、人がどういうことを考えているかとか、例えば、単に注文するためだけのコールセンターでも、自分はこういう人間でこういう商品が欲しいとおっしゃる方が多いので、そういったデータはユーザを理解するうえで貴重なデータになるでしょう。

田川 例えば、ちょっと先ほどの質問頂いたところに通じてくるんですけど、一般の人たちの感覚値の中に、大学の研究で、今後現存する人間の仕事が、マシンによって巨大に置き換えられていくだろうというのを、今の松尾さんと武田さんの話を聞いていると、起こるとおっしゃっているように思いますね。

例えば、プロフェッショナル型とか、タスクをさばくっていうタイプの形であれば、例えば、コールセンタービジネスは結構大きいと思うんですけど、そういったものというのは、一気に自動化されたりというようなところはもう起こると思っていいんでしょうか?

人間の仕事はAI(人工知能)に代替されてしまうのか?

武田 そうですね。単純に入力に対して答えを返すだけのタスクが欲しいんであれば、かなりのことが自動化出来ると思いますけど、本当にそれがユーザーが欲しているサービスかどうかっていうことですね。

例えば、止まっているのであれば、止まっている理由を聞いた上で、何か回答を与えるとかアドバイスをするというのが、本来の人間的なサービスだとすれば、その部分というのは追いついていないと思います。

ですので、IBMがAIという言葉を使わずに、コグニティブコンピューティングと呼んでいるのは、そういうサービスを支援するという役割の分担があるからですね。それが短期的に実現出来るレベルだろうと思ってのことなんですね。

田川 なるほど。そこがひとつの限界という感じですね。有難うございます。



田川 欣哉
Takram 代表

ハードウェア、ソフトウェアからインタラクティブアートまで、幅広い分野に精通するデザインエンジニア。主なプロジェクトに、トヨタ自動車「NS4」のUI設計、日本政府のビッグデータビジュアライゼーションシステム「RESAS-地域経済分析システム-」のプロトタイピング、NHK Eテレ「ミミクリーズ」のアートディレクションなどがある。日本語入力機器「tagtype」はニューヨーク近代美術館のパーマネントコレクションに選定されている。東京大学機械情報工学科卒業。英国Royal College of Art, Industrial Design Engineering修了。LEADING EDGE DESIGNを経て現職。英国Royal College of Art客員教授。

暦本先生は、ちょっと違う観点から人間の限界みたいなものを認識しつつ、その部分にこそ切り込んでいこうとしていらっしゃるような感じもするんですけど、AIという伏線と、例えば人間側の変化というところも含めてどう思われますか?

暦本 そうですね。多分今のAIで一番得意なのは、パーセプション(認知)とかクラシフィケーション(分類)みたいな、人間の思考から言えば割と前段のところなんですよね。

だから、面白いと思っているのは、ある種のAIサイボーグみたいに、そういうのが付いた人間とはどうなるだろうかというのはあります。

どういう組み合わせかというのはいろいろありえます。ヒューマンAIインタラクションをどう設計するかですね。

ヒューマンロボットインタラクションのように、擬人的な対象があって、人間がいて、その間で対話するみたいなものも、1つのヒューマンAIインタラクションです。

それだけではなく、補聴器の中にニューラルネットが入っていて、それが聞きにくい外国語の発音をなんとなく調整してくれるみたいなのもあるかもしれない。AIと人間の関わり方がよりインテグレートされていくという方向があると思います。

新しい応用を考えると、非常に大きな可能性があって、職種としても単純に失われるというのもあるんですけど、ハイブリッドな職種が出てくるという希望的観測はありますね。

作曲と言っても単純なシーケンスはつくるんだけれども、その中からどれかをピックするセンスは人間にあるとか、絵とかデザインとかもそうで、デザインも多分人間がいちいちレンダリングするというのはなくなってしまうかもしれません。

何がいい方向かというのを、大局的にコントロールするのは作家性があるということで、AIと人間の新しい関係を上手く創れるということに大きな発展性があると思っています。

機械学習などにより将来の人間の職業がどう影響を受けるかという有名な論文があって、そういうのを見ると47%の職業が深刻な影響を受けると書いてあります。結構脅威だな、と思ってリストをみると、大学教授も意外となくなる方に入っているんですね(笑)。

(会場笑)

暦本 つまり大教室で教員が一方的に教えるよりは、AIが一人ひとりに対して細かい気配りをして教えるほうが効果的であろうと。

という風に消える職業はもちろんありますけれども、私の希望はAIと人間のハイブリッドみたいなところに可能性を感じています。

田川 なるほど。暦本先生のお話を聴いていると、人間に対する希望とか愛みたいなものが感じられるんですけど、逆にそれを否定してしまいたい、例えば、人間というもの自が持つ限界性をテクノロジーで打ち破っていきたいというタイプの研究者たちも、結構いるんじゃないかと思うんですが、どうですか?

僕はこの前のアルファ碁を見ていて、アルファ碁というソフトウェアのネーミングにちょっとそれを感じたところがあって、実際作っている人と話した訳じゃないんで分かんないですけど、アルファ碁の次はベータ碁というのがあって、最後ベータ版を抜けると、碁というものが残って、もはや、それそのものが碁である、と。

【参考資料①】
「アルファ碁は芸術以外の何物でもない」人工知能が天才棋士を3タテ:DeepMindチャレンジを制する

【参考資料②】
グーグルの超知能「DeepMind」の正体

だからその時点に到達したら、その先人間は碁そのものと戦うんだみたいな意思が、ネーミングの伏線として感じられるんですね。

例えばそうなったときに、もはやAIは人間自体を超越している。そんなところを、研究者たちが求めているのかなと思うんですけど、どうなんでしょうか?

暦本 プロの方が、人間の持っていた囲碁の常識というのが実は結構狭かったんだと気づいたと言っているのがすごく印象的でした。

人間はずっと碁というものを延々とやっていたんだけども、人類が探索できていたスペースはそんなに広くなかったんじゃないか、と思わせたということですよね。

しかしそこは、前向きに捉えると、コンピューターをツールにして、我々はもっと碁を深く理解できて、碁をもっと楽しめるというポジティブな判断できるかもしれない。

もうそんなプレイは無駄という判断ももちろん出来るだろうし、それは当然両面あるかなと思いますね。



暦本 純一
東京大学大学院情報学環 教授/ソニーコンピュータサイエンス研究所副所長

東京大学情報学環教授、ソニーコンピュータサイエンス研究所副所長。ヒューマンコンピュータインタラクション研究者・発明家。世界初のモバイルAR(拡張現実)システムNaviCamを1990年代に試作、2001年にはマルチタッチの基礎研究を世界に先駆けて行うなど常に時代を先導する研究活動を展開している。最近ではHuman Augmentation (人間拡張)、IoTの次の潮流としてのIoA (Internet of Abilities)を提唱している。日本文化デザイン賞, グッドデザイン賞best100, 日本ソフトウェア科学会基礎科学賞, ACM UIST Lasting Impact Awardなど受賞多数。2007年にACM SIGCHI Academyに選出される。

田川 今どこまでAIというものが人間の仕事を置き換えていくのか、いかないのかという話で言うと、松尾先生の話を聞いていると運動というものが急速に磨かれていく。

ロボットが何度か自分で学習しながら、より良く人間よりも上手く動けるようになって、しかも翻訳能力も上がって来るとなると、なんとなくスターウォーズに出てくるC-3POみたいなものがイメージとして出てくるんですけど、どうなんですかね。

松尾 なんていうんですかね、認識が出来るというのと、それが出来るがゆえに運動が出来るということなんですけど、まずロボットはロボット歩きはしなくなります。だから、ロボットっぽい歩き方はしないと思うんですよね(笑)。

(会場笑)

松尾 あとそれが出来ると、多分いいことろがとてもたくさんあって。基本的に肉体労働系でコストがかかっている仕事を出来るようになりますね。

そうなると農業とか建設の仕事だとなと思っています。

あと言葉の意味理解というのも出来るようになると翻訳が出来るようになるので、日本からすると世界が日本語になるのと同じですから、多分いきなり世界観が変わりますよね。

大学は国内の大学に行く理由がないし、東京で働く理由もないしとなってくると、人々の生活は相当変わりますし、企業の競争力もすごく変わっていくんじゃないかと思います。

日本だけで通用するブランドで商売しているところというのは相当厳しくて、それはもう東京大学が一番そうなんですけど(笑)。

(会場笑)

松尾 そういうことが色んな領域で起こってくると思います。なんていうかSF的な映画の世界観があるんですけど、何で出来るのか出来ないのかと考えていくと、やっぱり起こるべき変化と起こらないだろうという変化が正確に分かるんじゃないかなと思っています。

田川 有難うございます。

(続)

続きは 〔AI特集〕AIは人間の役割をどう変えるのか? をご覧ください。

あわせて読みたい
AIは人間の役割をどう変えるのか?【SP-AI1 #2】 2016年に配信した、AI(人工知能)に関する議論を総特集いたします。今回は、ICCカンファレンス TOKYO 2016から、AI時代を見据えた問いを第一線の研究者たちが議論したセッションを4回に再編集してお届けします。AI特集(その2)は、人工物と人間の境界を探り、人間の役割はどう変わるのか?といった点を議論しました。ぜひご覧ください。

平日 毎朝7時に公式LINE@で新着記事を配信しています。友達申請はこちらから!
ICCの動画コンテンツも充実! Youtubeチャネルの登録はこちらから!

編集チーム:小林 雅/榎戸 貴史/戸田 秀成/藤田 温乃


【編集部コメント】

続編(その2)では、人工物と人間の境界を探り、人間の役割はどう変わるのか?といった点を議論しました。是非ご期待ください。感想はぜひNewsPicksでコメントを頂けると大変うれしいです。

更新情報はFacebookページのフォローをお願い致します。

この記事が気に入ったら
いいね または フォローしてね!