こんなに心震えるインタヴューはあっただろうか。Elon Musk: Tesla Autopilot | Artificial Intelligence (AI) Podcast https://t.co/ycopNbNKlt @YouTubeより
— Atsushi Sakai (@Atsushi_twi) 2019年4月14日
目次
はじめに
冒頭のMITの授業における
テスラのイーロン・マスクの自動運転に関するインタビューと、
その後実施されたテスラの自動運転に関するプレゼンテーションが素晴らしかったので、
調べた事柄をメモとして残してきます。
かなり意訳しているので、下記の内容は参考程度にしてください。
イーロン・マスクは、本当に技術に対する考えが一貫していて、
それが世界最高のエンジニア集団を魅了しているのだなと感じました。
MITの授業におけるインタビュー
こんなに心震えるインタヴューはあっただろうか。Elon Musk: Tesla Autopilot | Artificial Intelligence (AI) Podcast https://t.co/ycopNbNKlt @YouTubeより
— Atsushi Sakai (@Atsushi_twi) 2019年4月14日
Q テスラの車では、perceptionの結果が、全てディスプレイに表示されるのはなぜか?
A 車の状況を逐次確認するため
Q より画像処理の詳しい状態を確認するために、推定の不確かさなどを表示することは検討してるか?
A 自分の車には、デバックモードがあり、bounding boxや、ラベル情報が表示されるモードと、ベクターマップが表示されるモードがある。 しかしこれ以上の情報は、担当のエンジニア以外には、意味がわからない情報であり、表示させても無意味だろう。
Q アルゴリズムと、データ、ハードウェアではどれが1番重要だと思うか?
A データかな。すでにテスラの全ての車には8個のカメラとRadar、12個の超音波センサー、GPS、IMUが付いており、そのデータが全て自動的にに取得できるようになっている ちなみに、今のフル自動運転のコンピュータは、二つの全く同じ処理をするチップを載せている。冗長性のためにね。
? インターセクションのコースはスプラインでベクターフィールドに生成される?
Q 完全自動運転のシステムについて、どう考えているか?
A 現在販売しているテスラの車のハードウェアは実はすでにlevel4の自動運転に対応している。あとはデータを集めて、ソフトウェアをアップデートすればよい。
Q ドライバーをカメラを使ってモニタリングするのに、意味はあると思うか?
A 自動システムのレベルが低い場合は有効だろう。しかし、自動運転のシステムのレベルが十分高い場合はあまり意味がない。
Q キャデラックの自動運転のシステムは、使用できる高速道路が、テスト済みのものなど非常に限られているが、テスラはどこでもAutopilotの機能をオンできる。これは、あまりにも自由度が高過ぎないか。これではドライバーの判断で至る所でautopilotをオンできてしまう。
A そもそも2トンもする殺人マシーンを人間が運転できることがおかしい与思わないか?。エレベーターと同じで、将来、振り返ってみると、人間が操作していた時のほうがおかしいと感じるだろう。将来、正しいハードウェアと、ディープラーニング、そして大量のデータがあれば、必ず自動運転車は人間よりも安全になる。そしてその進化は指数関数的に進む。 自動運転の付いていない車は、馬と同じようになるだろう。なくならないが、非常にレアで、運転そのものに意味があるような位置ずけになるだろう。
Q 近年、NNを騙すようなインプットを作ることが簡単にできることが研究で、示されている。これを防ぐことはできると思うか?
A NNも所詮はただの行列演算であることを考えると、そうゆう問題があることは認識している。しかし、そのような騙すような入力を検知するNNを作ることは簡単だと思う。
Q 今のDNNの研究の先に、汎用AIはあると思うか?それとも何か新しい技術が必要だと思うか?
A 現時点では、汎用AIに関して、いくつかのキーテクノロジーは、まだ見つかってないだろう。 しかし、すぐに我々が何をしないといけないかは、わかるようになるだろう。
Q この世界がシミュレーションだとして、そのシミュレーションの管理者に何か質問できるとしたら、何を聞くか?
A (長い沈黙の後)シミュレーションの外側には何が広がっている?
Tesla Autonomy dayにおける発表
テスラの自動運転の発表見てる。18ヶ月で自動運転用のチップを設計して、すでに全ての車に乗りはじめていて、自動運転レデイってかっこよすぎるでしょ。Tesla Autonomy Day https://t.co/id1YR6ic4U @YouTubeより
— Atsushi Sakai (@Atsushi_twi) 2019年4月25日
これもメモを取って、この前のブログに追記しようかな。最近酷い交通関連の事件多すぎるから、全ての人にもっと自動運転に興味を持って欲しい
— Atsushi Sakai (@Atsushi_twi) 2019年4月25日
ちょっとずつ見てるけど、面白いなー。おそらくテスラには自動運転の画像処理の最高頭脳が集まっている気がする。どの自動車会社でも自動車の画像処理はやってきたけど、LIDARにいいとこ取られて、悔しいと思っていた優秀な人たちが、Elonの熱意に集まってきているんだろうな。
— Atsushi Sakai (@Atsushi_twi) 2019年4月26日
ElonはこんなにLidar貶しているけど、SpaceXのdragonのドッキングには、専用のLIDARを1から開発までしているから、ただ周りが使っているLIDARが嫌いなわけじゃなくて、本当に自動運転にはLIDARは不要だと思っているんだろうなぁ。面白い。はやく30年後の世界を見たい。
— Atsushi Sakai (@Atsushi_twi) 2019年4月26日
ちなみにこれが自動運転のデモの動画 (なんかリアリティがあまり無くて,本当の実験の動画か不明) : Full Self-Driving - YouTube https://t.co/u4UBLnLWd6
— Atsushi Sakai (@Atsushi_twi) 2019年4月27日
ハードウェア発表
18ヶ月で自動運転用のチップを設計した。
このチップはFull Self-Driving:FSD(完全自動運転)チップと呼ばれている。
すでに、自動運転用のチップは量産されており、
既存の車両にもレトロフィットするようにした。
このチップが壊れても、車は運転機能は損なわれないのがウリ。
プランニングは二つのチップで同じ計算をして、
結果が同じだったら、車両の入力に入れるように冗長化している。
CPUはARMの2.2GHz
バックアップ用のCPUもある
Neural Net Accelarater:NNAはGPUよりも画像処理が早い、NN専用のチップ。
NNの計算は99%は、足し算と掛け算で構成されており、NNAで高速化出来る
NNA用のコンパイラも作った。
FSDは、NvidiaのXaviorの7倍の計算スペックを誇る。
現在生産されているすべてのテスラの車は、このコンピュータを搭載しており、
ハードウェアは自動運転可能になった。
あとはソフトウェアを更新するだけで将来自動運転が可能になる。
Q: ReLU以外にもアクティベーション関数はつかえるか?
A: 使える。シグモイド関数なども使える。
Q: Nvidiaのチップ開発との違いは?
A: Nvidiaはすばらしい会社だが、顧客がたくさんいるため、
汎用的なチップを作らざるおえない。
しかし、我々は自動運転のみにフォーカスしている。
そのおかげで、ハードウェアとソフトウェアは最高のコンビネーションのものを作ることができる。
Q: チップはどこが製造するのか?
A: サムソンだ。
NNによる画像認識
テスラの車がNNで認識しているもの:
車線
走行可能領域
他の車両の位置とサイズ
信号機
テスラの自動運転車両は、
現状のセンサは8個のカメラと、12個の超音波センサー、一つのレーダ、
GPS、マップデータ、ペダルセンサとステアリングの角度センサーで構成されている。
NNにレーンの認識を正しくさせるには、
ひたすら入力画像と正しいレーンの答えを教え続ける必要がある。
NNは基本的にデータが多ければ多いほど、精度が良くなる
テスラでは、シミュレーターで ソフトウェアのテストを実施しているが、
NNを学習させるには、シミュレーターの画像は完璧ではない。
現実はより複雑だ。
画像処理のNNに必要なもの:
大きな、多様な、リアルなデータセット
複数台の車両のデータを使った学習
シャドーモード(バックグラウンドで認識を動かしてテストし、再度教師データを作成すること)
世界中で走行データを取っているので、
多数のレアケース(long tail)のデータを取得できるのがテスラの強み
NNを学習し、その結果を車両に搭載し、推定の不確かさを検知した時や、
人間が運転に介入してきた時には、それを自動的に検知して、再度データのラベリングをする
学習のループシステムが重要。
また、自動アノテーションシステムも重要
シャドーモードという、バックグラウンドでNNによる認識を実施して、
制御はしないが、正しく働いているかテストするモードで、再度学習ループを作ることも重要。
また、車両の軌跡のデータと、画像のデータから、
見えない所のコースの形状を予測することも可能になった。
加えて、コースは3dで予測しているため、
コースのスロープも推定することができる。
レーダの距離情報からNNを学習して、画像から距離を認識する研究も実施している。
人間は画像情報だけで、運転できているのだから、レーザは不要
また、世界の道路は視覚情報を前提として作られていることを忘れてはならない。
レーザは、自転車の人の顔の方向を認識するのは難しいし、
工事などの標識を認識することは難しい。
Q 学習にはどれだけ大量のデータが必要なのか?
A 重要なのは、データの量ではない、多様性だ。
高速道路の直線のデータのみを集めても意味は無い。
Q LIDARが嫌いなのはわかるが、冗長性を担保することがあるとは思わないか?
SpaceXのdragonのドッキングには、専用のLIDARを1から開発までしている
単純に、自動運転にはLIDARは不要だと思っている。
雪国でレーンが見えないときは、どのように対応すべきか?
白線のみを検出するなら、見えないので判断ができないが、
他の車の動きやその他の情報によって、走行できる所は判断できるようになる。これが画像の強み。
高精度な地図を持つ作戦も良いものではない。
世界中のマップをちゃんとメンテナンスすることは、かなり大変なことだ。
レーンはあくまでもガイドラインであって、そこまで精度が必要なのは、なにか間違っている。
LIDARと高精度なマップ(HDマップ)は自動運転には不要。
自動運転を実現するソフトウェア
説明者は元Facebookの人
すでにautopilotは70millionマイル以上はしっている
すべてのセンサや、NNの認識結果はベクタースペースという空間に一度すべてまとめられる。
現在のテスラのレーンチェンジシステムは一度もレーンチェンジに失敗したことはない。
Elonのプレゼン
テスラは2020年にテスラの車を使ったロボタクシーシステムをリリースする予定。
Tesla Networkというシステムをつかうことで、
テスラ車のユーザは、互いに車を貸し合うことができるようになる。
また、ロボタクシーシステムに自分の車を貸して、収益を得ることもできる。
将来的には、ロボタクシーの車両はEVで
ステアリングやブレーキ、アクセルが無いものになり、
より一層コストを減らすことができる。
ロボタクシーは自動的に駐車して、
自動的にチャージすることになる(スネークチャージャー)
参考資料
MyEnigma Supporters
もしこの記事が参考になり、
ブログをサポートしたいと思われた方は、
こちらからよろしくお願いします。