テスラの自律走行車の事故から思うに・・

投稿者: | 2016年7月15日

テスラの自律走行車の事故で初の死亡者が出たけど、思うに今の車の自動走行はあくまで補助レベルだと思うんだよな。

というのも、物体を認識して判断してるだけということ。今回のテスラの事故はカメラが誤認識した為のようだけど、人間で言えば運転中に光が目に入って運転ミスという感じかな。ただ、カメラなら色々フィルターやら活用すれば人間の目よりはマシになるだろうし性能を上げていけば良いだろう。

ただ、こういう性能アップも大事だけど、自分が運転するときに注意するのは運転手がどこを見てるかというのも大事で、特に交差点などでは車を見るというよりは運転手が今どっちを見てるかを確認しながら徐行運転するか発進するかとか判断する。

この辺りは今のカメラ認識では物体がある。それが止まってるか動いてるかしか判断しないだろう。自動ブレーキとかそうだろう。前に壁があるか車があるかで判断してるだけだろうし。

そう考えると今の車に付いてるカメラでは全然足りないと思う。ただ、相手の運転手の顔で目を認識するにはガラス越しというのもあるので難しい場面があるだろうし。

あとAIの使い方。実はここが問題で、一番足りないのは相互通信がないことかなと。というのも、今のAIは自分の車だけで完結してる。ここを相手の車と通信し、それで判断するというAIまで行かないと駄目では?と思う。

それとカメラを車体の外だけじゃなく運転手のカメラまで装備することかな。運転手のカメラがあれば、運転手が今どこを見てるとか余所見してるとか、最悪居眠りしてるとかが判断できるだろうし。これが近くにいる車同士で通信できれば、相手の車が次にどういう行動するかが判断できるかなと。

ここでまた問題がある。すべての車が相互通信出来ないといけなし、規格が統一されないといけないということ。今ではすでにGoogleとAppleのOSが入ったのがあるけど、ここに先手を打って日本が入ればと思うのだが・・車だけの販売台数は世界でトップレベルだけに。

今のところ日本でも海外メーカーでも数年後には自動運転のレベルを上げるというのは見てるけど、どうも自動運転補助のレベルを超えるとこまで考えてるメーカーはいないような・・。


人気ブログランキングへ | ブログ村 自作PC

HOME