晴れた朝、道路を横断して反対側のオフィスに到着します。途中で、無人の金属片、ロボットが向かって進んでいるのに気づき、交差することを決定するジレンマに陥ります。道路かどうか?「車は私に気づきましたか?」という強い質問があなたの心を圧迫します。その後、車両の速度が自動的に遅くなり、それがあなたのために道を開くのを観察すると、あなたは安心します。しかし、今起こったことを保持しますか?機械はどのようにして人間レベルの知性を獲得したのですか?
この記事では、自動運転車で使用されているセンサーと、それらが将来の車を運転する準備をどのように行っているかを詳しく調べて、これらの質問に答えてみます。その前に、自動運転車の基本、運転基準、主要な主要プレーヤー、現在の開発と展開の段階などについても説明しましょう。これらすべてについて、自動運転車は主要な市場であるため、検討します。自動運転車のシェア。
自動運転車の歴史
無人自動運転車は当初、空想科学小説から生まれましたが、今ではほとんど道に出る準備ができています。しかし、テクノロジーは一夜にして出現しませんでした。自動運転車の実験は1920年代後半に始まり、車は電波の助けを借りて遠隔操作されました。しかし、これらの車の有望な試験は、DARPAなどの研究機関によって直接資金提供され支援されている1950〜1960年代に始まりました。
グーグルのような技術者がゼネラルモーターズやフォードなどのライバルのフィールド企業に打撃を与え始めた2000年代になって初めて現実的になりました。Googleは、現在Googlewaymoと呼ばれている自動運転車プロジェクトの開発から始めました。タクシー会社のユーバーも、トヨタ、BMW、メルセデスベンツ、その他の市場の主要プレーヤーとの競争に伴い、自動運転車を次々と発表し、イーロンマスクが運転するテスラも市場に参入して物事を作り上げました。スパイシー。
運転基準
自動運転車と完全自動運転車という用語には大きな違いがあります。この違いは、以下で説明する運転基準のレベルに基づいています。これらの規格は、国際エンジニアリングおよび自動車産業協会であるSAE(Society of Automotive Engineers)のJ3016セクションによって、ヨーロッパでは連邦高速道路研究所によって提供されています。レベル0からレベル5までの6レベルの分類です。ただし、レベル0は自動化ではなく、車両の完全な人間による制御を意味します。
レベル1-ドライバーアシスタンス:加速制御やステアリングコントロールなど、車の低レベルのアシスタンス。両方を同時に行うことはできません。ここでは、ステアリング、ブレーキング、周囲の状況の把握などの主要なタスクは、依然としてドライバーによって制御されています。
レベル2-部分自動化:このレベルでは、重要な機能のほとんどがドライバーによって監視されている間、車はステアリングと加速の両方を支援できます。これは、今日道路を走っている車に見られる最も一般的なレベルです。
レベル3-条件付き自動化:レベル3に進み 、車がセンサーを使用して環境条件を監視し、ブレーキやステアリングのローリングなどの必要なアクションを実行します。一方、予期しない状況が発生した場合は、人間のドライバーがシステムに介入します。
レベル4-高度な自動化:これは、自動車が人間の入力なしで全旅程を完了することができる高度な自動化です。ただし、この場合は、システムが交通状況が安全で渋滞がないことを検出した場合にのみ、ドライバーが車をこのモードに切り替えることができるという独自の条件があります。
レベル5-完全自動化:このレベルは、現在まで存在しない完全自動化車用です。エンジニアはそれを実現しようとしています。これにより、ステアリングやブレーキへの手動制御入力なしで目的地に到達することができます。
自動運転/自動運転車で使用されるさまざまなタイプのセンサー
自動運転車で使用されるセンサーにはさまざまな種類がありますが、その主なものには、カメラ、レーダー、LIDAR、超音波センサーの使用が含まれます。自動運転車で使用されているセンサーの位置と種類を以下に示します。
上記のすべてのセンサーは、Fusion ECUとしても知られる電子制御ユニットにリアルタイムデータを送り、そこでデータが処理されて周囲の環境の360度の情報が取得されます。自動運転車の心臓部を形成する最も重要なセンサーは、レーダー、LIDAR、カメラセンサーですが、超音波センサー、温度センサー、車線検出センサー、GPSなどの他のセンサーの貢献も無視できません。 。
以下に示すグラフは、自動運転車または自動運転車でのセンサーの使用に焦点を当てたGoogle特許で実施された調査研究からのものであり、調査では各テクノロジー(Lidar、ソナー、レーダーなどの複数のセンサー)の特許分野の数を分析しています。すべての自動運転車で使用されている基本的なセンサーを使用した、物体と障害物の検出、分類、追跡用のカメラ)。
上のグラフは、センサーを利用した自動運転車の開発が1970年代頃に始まったと解釈できるため、センサーの使用に焦点を当てた自動運転車の特許出願の傾向を示しています。開発ペースは十分に速くはありませんでしたが、非常に遅いペースで増加しています。この理由は、未開発の工場、未開発の適切な研究施設や研究所、ハイエンドコンピューティングが利用できないこと、そしてもちろん自動運転車の計算と意思決定のための高速インターネット、クラウド、エッジアーキテクチャが利用できないことなど、さまざまです。
2007年から2010年にかけて、このテクノロジーが急成長しました。なぜなら、この期間中、ゼネラルモーターズを担当する会社は1社だけでした。次の年には、このレースにテクノロジーの巨人Googleが参加し、現在、さまざまな会社がこのテクノロジーに取り組んでいます。
今後数年間で、まったく新しい一連の企業がこのテクノロジー分野に参入し、さまざまな方法で研究をさらに進めることが予測されます。
自動運転車のレーダー
レーダーは、車両がそのシステムを理解するのを助けるために重要な役割を果たします。私たちはすでに、単純な超音波Arduinoレーダーシステムを以前に構築しました。レーダー技術は、第二次世界大戦中に最初に広く使用され、ドイツの発明家であるクリスティアンヒュルスマイヤーの特許「テレモビロスコープ」を適用して、最大3000m離れた船を検出できるレーダー技術を早期に実装しました。
今日早送りされたレーダー技術の開発は、世界中の軍隊、飛行機、船、潜水艦に多くの使用例をもたらしました。
レーダーはどのように機能しますか?
レーダーの頭文字であるRA DIO D etection A ND R anging、そしてほとんどその名前から、電波に動作することを理解することができます。送信機は無線信号を全方向に送信し、障害物や障害物がある場合、これらの電波はレーダー受信機に反射して戻ります。送信機と受信機の周波数の差は移動時間に比例し、測定に使用できます。距離を置き、さまざまなタイプのオブジェクトを区別します。
次の画像は、レーダーの送受信グラフを示しています。ここで、赤い線は送信信号であり、青い線は時間の経過に伴うさまざまなオブジェクトからの受信信号です。信号の送受信時間がわかっているので、FFT分析を実行して、センサーからの物体の距離を計算できます。
自動運転車でのレーダーの使用
レーダーは、自動車の板金の後ろに乗って自律するセンサーの1つであり、20年から現在まで自動車の生産に携わってきた技術であり、自動車にアダプティブクルーズコントロールと自動化を可能にします。緊急ブレーキ。カメラなどのビジョンシステムとは異なり、夜間や悪天候でも見ることができ、数百ヤードから物体の距離と速度を予測できます。
レーダーの欠点は、高度なレーダーでさえ環境を明確に予測できないことです。あなたが車の前に立っているサイクリストであると考えてください。ここでレーダーはあなたがサイクリストであることを確実に予測することはできませんが、オブジェクトまたは障害物としてあなたを識別し、必要なアクションを実行できます。また、方向を予測することもできません。あなたが直面しているものはあなたの速度と移動方向しか検出できません。
人間のように運転するには、車両は最初に人間のように見える必要があります。残念ながら、RADARは、自動運転車の他のセンサーと組み合わせて使用する必要があるため、詳細はあまり特定されていません。 Google、Uber、Toyota、Waymoなどの自動車製造会社のほとんどは、細部に固有であるが範囲が数百メートルしかないため、LiDARと呼ばれる別のセンサーに大きく依存しています。自動運転車メーカーのTESLAは、主要センサーとしてRADARを使用しており、Muskは、システムにLiDARが必要になることはないと確信しているため、これは唯一の例外です。
以前はレーダー技術で多くの開発が行われていませんでしたが、現在は自動運転車での重要性があります。レーダーシステムの進歩は、さまざまなテクノロジー企業や新興企業によってもたらされています。移動度のレーダーの役割を再発明している企業は以下のとおりです
ボッシュ
ボッシュの最新バージョンのレーダーは、車両が運転できるローカルマップの作成を支援しています。彼らは、道路署名の作成と同様に、GPSおよびレーダー情報に基づいて位置を把握できるようにするRADARと組み合わせてマップレイヤーを使用しています。
ボッシュのシステムは、GPSとレーダーからの入力を追加することで、リアルタイムのデータを取得してベースマップと比較し、2つのパターンを照合して、その位置を高精度で特定できます。
このテクノロジーの助けを借りて、車はカメラやLiDARにあまり依存することなく、悪天候でも自分自身を運転することができます。
WaveSense
WaveSenseはボストンを拠点とするレーダー会社であり、自動運転車は周囲を人間と同じように認識する必要はないと考えています。
彼らのレーダーは、他のシステムとは異なり、地中レーダーを使用して、路面の地図を作成することにより、道路を透視します。彼らのシステムは、道路の10フィート下で電波を送信し、土壌の種類、密度、岩石、インフラストラクチャをマッピングする信号を返します。
地図は道路のユニークな指紋です。車は、自分の位置を事前に読み込まれた地図と比較して、水平方向に2センチメートル、垂直方向に15センチメートル以内に位置を特定できます。
ウェーブセンステクノロジーは、気象条件にも依存しません。地中レーダーは、伝統的に考古学、パイプライン作業、救助に使用されています。wavesenseは、自動車用に使用した最初の企業です。
Lunewave
球形アンテナは、1940年にドイツの物理学者Rudolf Luneburgによって登場して以来、レーダー業界で認められています。360度のセンシング機能を提供できますが、これまでの問題は、自動車用の小型サイズでの製造が難しいことでした。
3D印刷の結果、それらは簡単に設計できました。Lunewaveは、およそピンポン球のサイズの3D印刷を利用して、360度アンテナを設計しています。
アンテナの独自の設計により、レーダーは380ヤードの距離で障害物を感知できます。これは通常のアンテナで達成できるほぼ2倍です。さらに、球体は、20度の従来のビューではなく、単一のユニットから360度のセンシング機能を可能にします。サイズが小さいため、システムへの統合が容易であり、RADARユニットの削減により、プロセッサ全体のマルチイメージスティッチングの負荷が軽減されます。
自動運転車のLiDars
ためのレーザー測量スタンドLiがGHT D etection ND Rの周囲を撮像するanging、それだけRADARようなイメージング技術だが、代わりに電波を使用することは、光(レーザ)を使用します。点群の助けを借りて、周囲の3Dマップを簡単に生成できます。ただし、カメラの解像度と一致させることはできませんが、それでもオブジェクトが向いている方向を示すのに十分なほど明確です。
LiDARはどのように機能しますか?
LiDARは通常、自動運転車の上部に回転モジュールとして表示されます。回転すると、毎秒150,000パルスの高速で発光し、前方の障害物にぶつかって戻ってくるまでの時間を測定します。光は毎秒300,000キロメートルの高速で移動するため、距離=(光速x飛行時間)/ 2の式を使用して、さまざまなポイントの距離として、障害物の距離を簡単に測定できます。環境が収集され、3D画像に解釈できるポイントクラウドを形成するために使用されます。LiDARは通常、オブジェクトの実際の寸法を測定します。これは、自動車で使用される場合にプラスポイントを与えます。この記事では、LiDARとその動作について詳しく知ることができます。
車でのLiDarの使用
LiDARは、かけがえのない画像技術のように見えますが、次のような独自の欠点があります。
- 高い運用コストと厳しいメンテナンス
- 大雨時には効果がない
- 太陽の角度が大きい場所や反射が大きい場所でのイメージングが不十分
これらの欠点に加えて、Waymoのような企業は、車両をこのテクノロジーに大きく依存しているため、このテクノロジーに多額の投資を行って改善しています。Waymoでさえ、環境をイメージングするための主要なセンサーとしてLiDARを使用しています。
しかし、それでもテスラのように、車両でのLiDARの使用に反対する企業があります。 TeslaのCEOであるElonMuskは最近、LiDARの使用についてコメントしました。「LIDARはばか者の用事であり、LIDARに依存している人は誰でも運命づけられています。」彼の会社であるテスラは、LiDARなしで自動運転を実現することができました。テスラで使用されているセンサーとそのカバー範囲を以下に示します。
これは、LiDARがセンサースイートの不可欠な部分であると考えているFord、GM Cruise、Uber、Waymoなどの企業に直接当てはまります。ムスクは、次のように引用しています。それが私の予測です。」また、大学は、車両の両側にある2台の安価なカメラがLiDARのわずかなコストで、ほぼLiDARの精度で物体を検出できるため、LiDARをダンプするというマスクの決定を支持しています。テスラ車の両側に配置されたカメラを下の画像に示します。
自動運転車のカメラ
すべての自動運転車は、複数のカメラを使用して周囲の環境を360度見渡せます。フロント、リア、レフト、ライトなど、両側から複数のカメラを使用し、最後に画像をつなぎ合わせて360度のビューを実現します。一方、一部のカメラは120度の広い視野とより短い範囲を備えており、他のカメラはより狭い視野に焦点を合わせて長距離のビジュアルを提供します。これらの車両の一部のカメラには、魚眼効果があり、非常に広いパノラマビューがあります。これらのカメラはすべて、車両のすべての分析と検出を実行するいくつかのコンピュータービジョンアルゴリズムで使用されます。また、以前に取り上げた他の画像処理関連の記事を確認することもできます。
車内でのカメラの使用
車両のカメラは、駐車支援や車後部の監視などの用途で古くから使用されています。現在、自動運転車の技術が発展するにつれて、車両におけるカメラの役割が再考されています。カメラは、周囲の環境を360度見渡せると同時に、道路を自律的に走行することができます。
道路のサラウンドビューを実現するために、カメラは車両のさまざまな場所に統合されています。前面には両眼視システムとも呼ばれるワイドビューカメラセンサーが使用され、左側と右側には単眼視システムが使用されています。駐車カメラが使用されます。これらのカメラユニットはすべて、画像をコントロールユニットに取り込み、画像をステッチしてサラウンドビューにします。
自動運転車の他のタイプのセンサー
上記の3つのセンサーの他に、車線検出、タイヤ空気圧監視、温度制御、外部照明制御、テレマティクスシステム、ヘッドライト制御など、さまざまな目的で自動運転車に使用されるセンサーがいくつかあります。
自動運転車の未来はエキサイティングであり、まだ開発中です。将来的には多くの企業がレースを実行するために前進し、この技術を安全に使用するために多くの新しい法律や基準が作成されます。