【NEW】ICC サミット FUKUOKA 2025 開催情報詳しくはこちら

3. エッジ生成AIのキラーアプリケーションは自動運転

ICC KYOTO 2024のセッション「AIの最新ソリューションや技術トレンドを徹底解説(シーズン7)」、全11回の③は、 リングサイドのALGO ARTIS 武藤 悠輔さんの質問からスタート。話題は、技術開発になくてはならないGPUの確保と、その安定稼働を支えるインフラエンジニア、マルチモーダル生成AIの処理速度、今後のAIの見立てと軍事利用への懸念と続きます。ぜひご覧ください!

ICCサミットは「ともに学び、ともに産業を創る。」ための場です。そして参加者同士が朝から晩まで真剣に学び合い、交流します。次回ICCサミット FUKUOKA 2025は、2025年2月17日〜 2月20日 福岡市での開催を予定しております。参加登録は公式ページをご覧ください。

本セッションのオフィシャルサポーターは Notion です。


【登壇者情報】
2024年9月2〜5日開催
ICC KYOTO 2024
Session 11C
AIの最新ソリューションや技術トレンドを徹底解説(シーズン7)
Supported by Notion

(スピーカー)

青木 俊介
チューリング株式会社
取締役 共同創業者

柴田 尚樹
NSV Wolf Capital
Partner

砂金 信一郎
Gen-AX株式会社
代表取締役社長 CEO

山崎 はずむ
株式会社Poetics
代表取締役

(リングサイド席)

上地 練
株式会社Solafune
代表取締役CEO

小田島 春樹
有限会社ゑびや / 株式会社EBILAB
代表取締役社長

柴戸 純也
株式会社リンクアンドモチベーション
執行役員

武藤 悠輔
株式会社 ALGO ARTIS
取締役 VPoE

(モデレーター)

尾原 和啓
IT批評家

「AIの最新ソリューションや技術トレンドを徹底解説(シーズン7)」の配信済み記事一覧


事業成長と技術シーズ創出をいかに両立させる?

武藤 悠輔さん(以下、武藤) 質問してもよろしいですか?

ALGO ARTISの武藤です。


武藤 悠輔
株式会社 ALGO ARTIS
取締役 VPoE

株式会社ALGO ARTIS 取締役 VPoE。慶應義塾大学物理学科を首席で卒業後、スマホアプリ制作会社を起業しCTOとして従事。2019年にDeNAに入社し、認証・認可基盤を中心にさまざまなプロダクト開発を行った。2021年7月にDeNAからスピンオフしてALGO ARTISを設立する際に取締役に就任し、現在に至る。ALGO ARTISでは、「社会基盤の最適化」の実現を目指し、VPoE として組織づくりからプロダクト開発まで幅広く推進している。

どちらかというと技術よりも組織のほうに質問が寄ってしまうかもしれませんが、我々は最適化アルゴリズムの技術の高いエンジニアを集めている会社で、技術シーズが自然発生的に生まれます。

まさにさっきの話だと思いますが、ビジネスを考えると技術シーズはなかなか事業につながることがなくて、先に課題があって技術がついてくるものだみたいな話があると思います。

チューリングでは、多分それを技術に寄せながら進めていらっしゃるのかなと思います。

その辺りのスタンスというか事業がうまくいくために、技術をどうとらえているのか教えてください。

もう一つは、こういう取り組みは同時多発的にあるのか、どういうふうに種を育てているのかに興味があります。

青木 すべったというか、やってみて全然だめで「どうするんだ、これ?」みたいなものはありますよ。

これはスタンスの問題だと思いますが、人数が増えてくるとビジネスサイドは「これで売上が立てられる」とか「世界モデルを提供すれば自動車メーカーからお金が取れる」とか、売上の話をするのです。

エンジニアからすると、「世界モデルだけ提供してどうにかなるの?」と思いますが、そういうことはずっと起きていますね。

でも今のところ、「うちはテックの会社なので、小さく収まるのはやめましょう」と言って、そこの同意は取れています。

シーズに関しては論文を頑張って出していますが、最先端の新しいところをやりにいくわけではなくて、割と海外競合とか、この情勢が今どうなっているかということをかなり気にして見ています。

「Heron」という先ほどお見せしたマルチモーダル生成AIライブラリを作った後に、まだどんどん作っていってもよかったのですが、ここの戦いがそもそも巨人との戦いになってしまっているので、1回違うことをやろうと言いました。

テーマはトップダウンで決める?

武藤 テーマはトップダウンで決めていますか?

青木 トップダウンで決まることもありますし、あとはエンジニアが論文を読んできたり、ワークショップに出たりして、これを絶対やったほうがいいですよというものは一度議論します。

でもやらないとなった時に、「えっ、やらないの?」みたいな反応をするエンジニアもいます。

武藤 なるほど、ありがとうございます。

尾原 本当にこの辺りは大事です。

世界モデルでリアルが再現できるようになると、小売りの店舗に来たお客様がこんなお客様ならこう入ってくるといったシミュレーションや、工場の最適化など、対象がいろいろ広がっていきます。

そのときに、そのビジネスに必要なスコープを定義して、何にフォーカスしながらチューニングしていくかは非常に大事ですね。

柴田 私はアメリカでテスラ車に6〜7年乗っていて、まだFSD(Full Self-Driving:完全自動運転)がない頃から、テスラのFSDのソフトウェアにお金を払っていました。

確かにFSD12になって、性能がすごくなりました。

アメリカは左ハンドルなので、運転中は携帯をここ(左斜め上)に置いて、FSDをオンにしてYouTubeを見ながら、ずっと連れていってもらいました。

一般道路もそれで行けるという感じで、すごいなと思いました。

テスラの人と以前話をした時に、エッジケースのデータをどう集めるかに注力していました。

正常系は機械学習を大量にやれば何とかなるわけですが、エッジケースのデータを集めるときには、特定のエッジケースだけのデータを集めるためのアルゴリズムがまず必要です。

例えば、すごく複雑な、四方の交差点ではなく5~6の道路が交わるような交差点のデータだけを集中的に機械学習したい場合、実際にドライバーが運転しているデータをテスラ車から集めて、そこの部分だけを局所的に学習する仕組みがあるという話をしていて、そうじゃないと無理だよなと思いました。

でも、世界モデルがあったら、テスラほど車が走っていなくても合成データで作れるので、それはすごいなと思って、青木さんの話を聞いていました。

青木 ありがとうございます。

そうなんです。現実世界で取れるデータと起こせるデータは限られているので、AIで無造作に作れると開発が急速に進むのではないかと思ってやっています。

GPU確保に早期着手

青木 ちなみに、「GPUを使っているのではないですか?」と言われますが、めちゃくちゃ使っています。

左側、経済産業省のプロジェクト「GENIAC(Generative AI Accelerator Challenge)」に採択され、チューリングにも8〜9億円が入ってきました。

右側ですが、H100を96基確保して、今月、ちょうど昨日から「Gaggle Cluster-1」の稼働を開始しました。

今はGPU戦争になっていて、そうなる前に「お金をどんなに払ってもGPUが取れないのはおかしいですよね」という話をエンジニアとしていました。

AWSやAzureと話していくと、「そもそもバルクで取っている会社には勝てない。リージョン的にも、向こう側で使っているので勝てないですよ」と言われました。

尾原 実際にテスラは、世界で5番目にGPUを持っている会社ですから。

青木 もうここはやっていくしかないよねというところで、GPUをめちゃくちゃ使っているアピールをして、国産の生成AIの開発力強化ということで、GENIACで我々を含むいくつかの会社が選定されて、継続的に行われています。

右側はこれだけGPU戦争になっているのだから、米不足と一緒で多分欲しくなった時にはもうなくなっているから確保しようと決めて、早い段階でアクセルを踏んでいました。

自動運転EV開発のチューリング、AI開発基盤として大規模GPUクラスタ「Gaggle Cluster」の構築に着手~企業専有のGPUリソースとしては国内最大規模~ 2023年11月22日(PR TIMES) 

決定後、次の9月に96基入ってくるタイミングでいろいろコミュニケーションしていくと、大企業も導入を決めましたとか、作りましたと言っていて、タイミングをミスったかなとずっと考えていましたが、5月ぐらいにアップデートをかけていったら、皆さんもうGPUを買えなくなり、確保できません、どうやって確保しましたかと言っていました。

いや君らがこの議論をしている間に決めたんだよと思いながら、こうやって賭けをしていくんだなと思ってやっていたりします。

(会場笑)

巨大GPUの安定稼働は技術そのもの

砂金 ちなみに右は、クラスタを自社で組んでいるのですか?

青木 ベンダーに入ってもらっています。

砂金 H100は、結構壊れます。

青木 そうなんですよ(笑)。5年使えるとは、全然思っていないです。

砂金 ソフトバンクはA100ベースでSuperPODを2セット組んで、InfiniBandで構成して、SB Intuitionsで言語モデルを作っていますが、安定して動かし続けること自体が結構技術ですよね。

インフラエンジニアがどのくらい内部にいらっしゃるかわかりませんが、モデルを作ることとクラスタを安定稼働させることは、ちょっと次元が違って、専門が違うエンジニアが必要です。

尾原 実際メタ社はLLaMA(ラマ)というすごいAIを出していますが、トレーニング精度が上がらないのは、2〜3割熱暴走するのでトレーニングが途中でおかしくなるからみたいなことがあったりします。

メタ、AIモデル「ラマ3」強化版リリース 言語・数学能力向上(ロイター  2024年7月24日)

この知識が要るかどうかはありますけど、意外とそういう地べたなところで性能が決まるみたいなところがあったりするのですよね。

青木 なるほど、ありがとうございます。勉強になります。

ちなみにGENIACをやっている時もGCP(Google Cloud)と経済産業省が組んでお金を出してくれたのですが、GCP上で何か起こった時に、契約上確認できなかったのですよ。

ある会社さんは、普通に何週間かちゃんと検査をしにいったのですがわからないとか、でも契約上もう無理ですとかとなっていて、やはりGPUのところは難しいなと思いました。

あとは、SB IntuitionsもSakana AIもそうですが、インフラエンジニアの求人が結構増えてきています。

GPUの前はインフラエンジニアは結構減っていたと思いますが、急に上がってきたのかなと思います。

尾原 そうですね。

砂金 すみません、私がマイクロソフトにいた時にAzureを流行らせてAWSも頑張って国内からインフラエンジニアのお仕事をだいぶ減らしてしまって空洞化が起こって、すごくそこは反省しているのですが。

尾原 砂金さんのせいだ!(笑)

砂金 はい、……いやいや僕だけのせいじゃないです。

尾原 (笑)

砂金 ちゃんとインフラの設計ができる、土台をちゃんとする人が日本のIT業界から本当にいなくなっていて、別にDGXサーバーを1、2台動かすだけだったらたいした話ではないですが、まとまったボリュームのGPU環境を動かすのは、それだけで技術なのです。

柴田 最近よくMLOpsのところで、スタートアップのGPUの稼働率が意外と低いみたいな話をよく聞くのですよね。

学習のトレーニングのほうはわりと計算しやすいのですが、実行するほうはどうしても。

多分ウェブサーバーとか普通のCPUのサーバーもスカスカの場合が結構多いと思いますが、意外と最適化されていないので、そこを最適化すると、みんなGPUが足りない足りないと言っているのですが、意外となんとかなるんじゃないかみたいな話もあったりします。余談ですが。

尾原 会場の皆さんの視点に立った場合、本気でその産業の中でAIでリードしようと考えたら、実は必要な技術者は意外と地べたのところにいて、そういう技術者がいる企業が優位性を持つという話もあります。

一方で利用者の観点からすると、半年ぐらいとか1年ぐらい遅れても、そういうものがサーバー環境でコモディティ化してから参入しようと思うので、この辺りは分かれるところだと思います。

ちょっと盛り上がり過ぎて、あと5分ぐらいです。

マルチモーダル生成AIの処理速度は人間に及ぶか

柴戸 純也さん(以下、柴戸) すみません、せっかくなのでよろしいですか?


柴戸 純也
株式会社リンクアンドモチベーション
執行役員

大手IT企業を経て、フリーランスとして技術力を磨いた後、2つの企業で執行役員を勤める。 前職のアドテク系ベンチャー企業では執行役員(Vp of Engineering )として、企業を上場へと導く。 「社会を前進させるプロダクトをつくりたい」という思いから、2018年にリンクアンドモチベーションに エンジニア社員一人目として入社。プロダクト開発の内製化を推し進め、2018年からの5年間で約90名規模へ組織を拡大。 現在はモチベーションクラウドシリーズの開発責任者を務めると同時に、グループ全体のDXを牽引。 2022年1月より執行役員に就任し、テクノロジーの力でリンクアンドモチベーショングループの「第二の創業」を推進している。

安全性や人間の判断などお話がいろいろあったと思いますが、やはり自動運転の前に運転だと考えた場合、人間の反射神経でいろいろ担保してきた安全性というものがあると思います。

LLMや生成AIを使った場合の処理速度、特にマルチモーダルの場合は、そこに及ぶぐらいまでの速度でいけているのか、別の方法で実現するのか、どう担保していくのかなと思いました。

青木 速度とハードウェアは非常に大きな課題ですね。

最近、エッジ側で動かす「エッジ生成AI」という単語も出てきています。

多分、エッジ生成AIのキラーアプリケーションが自動運転だと思うのです。

自動運転車はITの人からすると、クラウドにつなげればいいじゃないかと考えたりするのですが、基本的にはロボットも自動運転車も、その内部で安全を担保しなければいけないものだと思います。

そうしたときに、限られたハードウェア資源でどうやっていくかというところは、非常に大きな課題です。

ここに対して、今どこかの会社だったりどこかの技術が決まった形であるわけではなくて、今まだそっちはそっちで戦っている状況があります。

柴戸 わかりました。

青木 エッジ生成AI系の半導体が伸びている理由も、多分そこだと思います。

柴田 テスラの自動運転は、僕が買った時はまだAMD社か何かの汎用のチップが入っていました。

もともとFSDを予約購入したので、彼らが独自のエッジのチップを作った時に家まで来てくれて、助手席のボックスをパカッと開けてGPUをガバッと抜き出してGPUをガバッと入れて、これで自動運転だとか言われて、本当にちゃんと動いているので、多分エッジである程度できるようになると思います。

(会場笑)

ありがとうございます。

物理法則と物理世界を理解したAIの開発

青木 あまり時間がないですが、最後のスライドは、今後のAIの見立てです。

物理法則、物理世界をどう理解したAIが出てくるのかというところは、今我々も取り組んでいます。

これができると、多分ヒューマノイドや自動運転は親和性があると思います。

先ほど言ったように、何をやったらこれが起こるとか、ガラスのビンを落としたら割れるとか、人間がわかるように、これをわかったAIが多分出てくるはずです。

ただ、絵や動画、文書を生成するには、基本的にインターネット上にある文書と画像と動画を学習データに入れて生成しているので、何かしら違う学習が必要なのかなと思って、今いろいろ試しているところで、ここは面白いかなと思っています。

ちなみにPIVOTに出るので、よかったら皆さん見てください。

【自動運転で日本が勝てる理由】(PIVOT)

砂金 スライドの左側は『ソードアート・オンライン アリシゼーション War of Underworld』の世界ですね。

完全にシミュレーションができるのであれば、それがヒューマノイドロボットに還元されてという世界を自動運転でやろうとしている?

青木 その通りです。

AIの軍事利用

青木 今、個人でAIセーフティの話を書いています。

右側については、イスラエルの戦争で今「Lavender(ラベンダー)」というものが出てきて、このラベンダーはデータベースに人を入れていて、どれだけ危険があって、どの順番で人を倒してkillしていくかみたいなことをしているとリークされました。

イスラエル国防軍、AI標的システム「ラベンダー」を使用してガザのターゲットを特定( Ledge.ai)

ラベンダーが出てくる前、イーロン・マスクや何人かが、AIはちゃんと安全担保できるかどうか、何かやったほうがいいだろうと言って、AIセーフティについて投資などしていました。

人工知能の「邪悪化」を防ぎたいイーロン・マスク、1,000万ドルを寄付 2015.01.19(WIRED)

多分普通のエンジニアからすると、その時は何か言ってるなという感じだったのですが、ラベンダーのようなものが本当に出てくると心配だなと思います。

尾原 だから実際、誰をどういう順番に暗殺するのか、どの設備をどの順番に壊すのがいいのかもAIが考えるし、当然先ほどの世界モデルみたいなものがあれば、ドローンの自動運転が非常に簡単になるわけですよね。

そうすると、ドローンだと安いですから小国でも暗殺兵器が作れるし、もっと言うと原子力潜水艦の中に世界モデルの入ったAIがあれば人はいらないので、ずっと運転し続ける核ミサイルを搭載した潜水艦が必ず現れるというのはしょうがないことで……

あまり日本ではこういう議論はされませんが、Google元CEOのエリック・シュミットも言ってるのですが残念ながらアメリカだったり、中国だったり、ロシアだったり、と世界がいくつかに分かれる以上、核兵器と一緒で、国防的にはこの世界モデルに投資しないと問題、みたいなところまで大きくなっているという話ですよね。

青木 そうです。もう1つは妄想ではありますが、人間より賢い存在のAIがもう出てきつつあるじゃないですか。

20年後かなと思っていたら、もうすでに出て来始めているといった中で、サルと人間を考えたら人間のほうが完全に上位互換なので、サルはこういう会場には入れないですよね。

もうAI側のほうが賢い存在になったときに、この会場には入れないし建物に入れないと考えると、人間が下位互換になってしまいます。

ラベンダーでいうと、人間がいて、それを使う賢いAIがいて、敵がいるという情勢ですけれど、他の社会課題だったり大きな課題に対峙した時に、AIが上、人間が下となったときに、世界は結構変わってくるだろうなと思います。

まだまだ掘ったら面白いものが出てくるかなと思って、最近興味を持っています。

尾原 人工衛星からのAIをやっていらっしゃる上地さん、どうですか?

エッジケースの学習において工夫は?

上地 練さん(以下、上地) まず2つ質問があります。


上地 練
株式会社Solafune
代表取締役CEO

「Hack The Planet.」をミッションに、地球上で起こるあらゆる事象を解析することを目的として衛星データ解析技術の開発および提供を行うスタートアップ企業を創業し、代表取締役CEOに就任。運営する衛星データプラットフォーム「Solafune」は、世界100カ国以上での技術者に利用されている。日本国内外のさまざまな政府機関と密接に連携し、各国への技術提供を積極的に行なっている。

1つは話がちょっと戻ってしまいますが、エッジケースの学習についてです。

僕らも生成AIみたいなものにシミュレーションさせたものを学習させています。

それは結構元となるモデルのデータのエントロピー(乱雑さ、不確実さ)がすごく影響してきます。

例えば、アフリカを学習していないものにいくらいろいろ指示しても、アフリカで取れるようなデータは出てきません。

それが過学習をする影響になるのではないかという議論がありますが、その辺りについて工夫されている点があれば教えてほしいです。

もう1つは、今防衛省とかと、今のお話に似た感じの、世の中にある見てはいけないものを見るように言われるような仕事が最近始まっていて、逆にこういうシミュレーションはさせないでおこうみたいに、AIに制限をかけているような事例があれば教えていただきたいです。

青木 1つ目の質問は……

上地 エッジケースで、例えば、僕らの事例だと、某国の軍艦を見たいとしても、軍艦のデータはそんなにないわけですよ。

それを学習させたいとなったときに、いろいろシミュレーションして生成したりもしますが、生成したAIがあるじゃないですか。

過去に学習したデータに、生成したものが影響してくるので、そこで工夫されたところはありますか?

青木 僕は最初のほうはエッジケースに対応するためには特化型に作るのかなと一瞬思っていたのですが、やはり原理原則というか、2020年にOpenAIが発表したスケーリング則(※)ですね。

▶編集注:データの規模や計算量、モデルのパラメーター量が増えるほど性能が強化されるという法則

Scaling Laws for Neural Language Models(Cornell University)

OpenAIがすごかったのは、スケーリング則を見つけて論文を発表して、お金を集めてきて、スケーリング則が非常に効くことを、ちゃんとプロダクトとして出してきたことです。

スケーリング則から外れたことをするのは、ちょっと今のところ微妙かなと思っています。

これは後で全然違うことを言っているかもしれませんが、今はそう思っています。

なぜかというと、このケースもエッジケースっぽいのですが、もっとひどいエッジケースがあるのです。

例えば、道路にヤギが寝っ転がっているとか、事故でミカンやカボチャが高速道路に撒かれてしまって2道路が封鎖されているみたいなものが出てきたりするのですが、そこに対しても実は生成AIはある程度理解してくれます。

ということを考えると、某国の潜水艦がデータにないから特定はできないといっても、それは人間も特定できないじゃないですか。

でも類推することはできるので、そのアプローチしかないのではないかと今は思っています。これが1つ目のご質問の回答です。

2つ目の制限をかけているかというご質問については、恥ずかしながら制限は今かけられていません。

制限をかけるほどの開発もできていないなと思っています。

なぜ最後のスライドを入れているかというと、制限をかけるほどの技術レベルにまだ我々は達していないと思っているし、ただAIの最前線を走るプレイヤーとしては、この辺りに興味や関心を注がないのは良くないかなと思って今は見ています。

エッジケースはスケーリング則に任せる

上地 ありがとうございます。

前者の、LLM的な生成系のモデル側に任せるというのは、今はそういうエッジすぎるものに関しては個別のソリューションを作るよりも、もっと汎用的なところのスケーリング則に任せたほうがいいということでしょうか?

青木 これはわかりませんが、先ほどのミカンやカボチャの話は、別にミカンやカボチャが撒かれたものが学習データにあったとは思えないのです。

だって、そんなシーンを僕らは見たことがないですよね。

でも何が起きているかというと、ミカンやカボチャというものを認識して、それが他のどこかの画像データに残っていますと。

かつ高速道路の画像があって、その組み合わせでミカンやカボチャが道にあふれている。

これはすごく特殊だという出力をしてくれるのですが、それぐらいのことを人間もやっているのですよね。

なぜなら高速道路にヤギが寝っ転がっているのを見たことがあるからこれはヤギだと言っているわけではなくて、ヤギを見たことがあって、高速道路を見たことがあって、ヤギが高速道路に寝っ転がっているのを見たことがないから、これは珍しいケースだと思っているだけであって。

でも、基本的に見たことがないものを答えるのは今のところ難しいけれど、類推することはできるくらいの知識は持っていると思います。

尾原 今の話は「アブダクション」という言い方をします。

人間というのは少数の常識の掛け算の中で新しくできたことに対応できてしまうところがあります。

その能力をGPTぐらいたくさん発揮してしまうと、ものすごい知性を発揮することがわかったのがさっき言ったスケーリング則です。

とにかくモデルサイズとトレーニングを大きくしていける、性能が上がっていくという話になっています。

最後に補完すると、後者のご質問については、イギリスで開催したAIセーフティサミット(AI Safety Summit 2023)の中で、ヨーロッパはモデルサイズを大きくしてしまったらとんでもない知性の組み合わせが生まれてしまうから、サイズで制限しようというのが一般的な今のところの方向性です。(補足: 現在はOpen AI o1 など推論スケーリングの影響など論点が増えてます)

AIセーフティサミット閉幕、安全性確保に向け官民がコミット(ジェトロ)

OpenAIも、最近はそれに揃っていたりしますね。

ということで盛り上がり過ぎてしまいましたが、最後に何か一言、今後の方向性などお話ししたいことはありますか?

日本はAIでまだ戦える

青木 最前線を走っていきたいなと思うし、悔しかったのは先ほどITの話をしていましたが、やはりアメリカ企業は強いのですよね。

僕がアメリカに行って思ったのは、アメリカのIT企業のことをすごいと思っているのは、地方の高校生が「東京すげえ」と思っているのと結構似ているなと思います。

これは、普通に悔しいのです。

AIに関しては日本はまだ戦えるところがあると思っているので、ぜひ皆さんも一緒に勉強して、次の課題などを見つけていけたらと思っています。ありがとうございます。

尾原 ありがとうございます。

では、青木さんは物理世界の探求のお話でしたが、今度は感情世界、心の世界をAIで埋め尽くしていくPoetics山崎さん、お願いします。

山崎 はずむさん(以下、山崎) あまり感情については今日は……。

尾原 あっ、今日は話さないのですね(笑)。

山崎 ごめんなさい。

尾原 では、山崎さん、お願いします。

(続)

編集チーム:小林 雅/原口 史帆/浅郷 浩子/戸田 秀成/小林 弘美

この記事が気に入ったら
いいね または フォローしてね!