Movatterモバイル変換


[0]ホーム

URL:


SSII, profile picture
Uploaded bySSII
4,403 views

SSII2022 [TS2] 自律移動ロボットのためのロボットビジョン〜 オープンソースの自動運転ソフトAutowareを解説 〜

6/9 (木) 09:30~10:40メイン会場講師:河口 信夫 氏(名古屋大学)、斉藤 之寛 氏(株式会社ティアフォー)概要: 自動運転を実現するためには、ロボットビジョンに基づき、環境を認識するために様々な処理(パーセプション)を行っています。 本講演では、Autoware を事例とし、自動運転に使われている画像処理、3D物体認識や、それらを用いた自動運転における判断・制御について解説します。また、AutowareはROS上で動作しており、様々なセンサやアクチュエータを利用できるので、自動車だけでなく、小型の自律移動ロボットにも活用可能です。Autoware を活用している様々な自律移動ロボットを紹介します。

自律移動ロボットのためのロボットビジョン〜オープンソースの自動運転ソフトAutowareを解説〜2022.6.9河口 信夫(名古屋大学/株式会社ティアフォー)斉藤 之寛(株式会社ティアフォー)
本日のチュートリアル構成• イントロ: 河口 信夫(名古屋大/TIER IV)• 自律移動ロボットとは• ROSとは? Autoware とは?• The Autoware Foundation• Autoware.ai から Autoware Core/Universe へ• メイン:斉藤 之寛 (TIER IV)• 自動運転• Autowareのアーキテクチャ• 自動運転のためのロボットビジョン
自己紹介:河口 信夫(かわぐち のぶお)名古屋大学 工学研究科 情報・通信工学専攻 教授(未来社会創造機構モビリティ社会研究所 副所長)TMI (超学際移動イノベーション)卓越大学院 コーディネータ自動運転ベンチャー (株) ティアフォー フェローNPO法人位置情報サービス研究機構(Lisra) 代表理事総務省スマートIoT推進フォーラム テストベッド分科会長・研究テーマ:ユビキタス・コンピューティング代表的な成果: HASC コーパス/ツール• カウントダウン時刻表アプリ「駅.Locky」(300万人が利用)• 需給交換プラットフォーム/社会活動OS Synerex駅.Locky
自律移動ロボット• 周囲の状況をセンサー等で認識して、状況を判断し自律的に移動できるロボット• 今後の社会で様々な活躍が期待されている• 自動運転車両• 自律移動車椅子• 警備ロボット• 自動配送・配膳ロボット• 掃除ロボット
掃除ロボット:ルンバカメラによる障害物認識衝突センサによる環境認識走行結果から地図作成(SLAM)赤外線センサによる段差推定
ロボットを動かす仕組みセンサー群LiDARGPSCAMERAIMUMOTORSTEERING環境の認識自己位置推定物体認識センサードライバ判断空間地図動作指示アクチュエータドライバアクチュエータ群ロボットミドルウェア / ROSAutoware
自動運転ソフトウェア AutowareMachine Learning/Deep LearningMany-Core CPUs GPUsEmbedded OS RTOS and Real-Time LinuxROSCUDAECUECUECUECUCANCamera GNSSLIDARRadarOpenCVPCLMonitoringADAS SafetyControlControlControlControlPerception Planning ControlAutonomous Driving SystemVehicular SystemDriver InterfaceCarDriverDistributedDataProceesingLarge-scaleDBMSIn-memoryDBMSPedestrianFPGAsStatistical Analysishttps://github.com/autowarefoundation/autoware2015年に名古屋大が公開※AutowareはThe Autoware Foundationの登録商標です
(Robot Operating System)とは?• ロボット向けに多様なセンサ・モジュール・アクチュエータを統合的に扱えるフレームワーク• ロボット開発におけるツール・ライブラリを提供• 可視化・シミュレーション・記録・通信Willow Garage が2007年から開発(ちなみに、OpenCVの開発にも2008年に参加)• 2009年に最初のROSが公開(0.4)• 2010年にROS1.0• 2012年に、OSRF が設立 2013年からは開発を主導(現在では Open Robotics に)• 2017年からは ROS2 もリリース
の特長• ノード(モジュール)の集合としてシステムを構築• ノード間は「トピック」と呼ばれるチャンネルを通じて通信• 複数PC間でも通信可能• Publish/Subscribe 形式での通信 (送受信の分離)• 多数のパッケージが公開• ナビゲーション、ロボットハンド• ハードウェアドライバ• ライブラリ(PCL, OpenCV)• 連携ツール
ROSツールの例視覚化・シミュレーション強力なGUIでROSとの連携が充実Gazebo : 3D物理シミュレーター簡単にシステム状態を視覚化可能[再生データ]● 記録したセンサデータ(rosbagファイル)● 指定した値のデータRViz:3D視覚化ツール
ROS1からROS2へ• ROS1は、研究開発を主なターゲット• 品質保証の枠組みが無く、障害に弱い• ターゲットOSが実質的に Ubuntu のみ• 開発プロセスなどの定義もなし• 独自の通信プロトコル• リアルタイム性などを保障し「プロダクト」として利用できるソフトウェアが必要→ ROS2では、これらの課題を解決・開発プロセスを定め、品質を保証・CIのダッシュボードなどを整備・標準化された通信プロトコルを導入(OMG標準 DDS)
● Master が単一障害点● すべてのノードが1つのプロセス● プロセス間でリソースは共有不可能● 「Nodelet」という仕組みはあるが。。。○ 別API(実装時間で選択)○ 壊れやすい○ 共有ポインター通信のみ○ QoSなし● 実行管理/起動順管理が困難○ 実行順序を変えるためには再起動ROS 1:特徴Masterアプリケーションプロセスノードプロセスノードプロセスノード
● Masterなしで、DDSで通信(相互に Discovery)● 複数ノードを同一のプロセスに統合可能○ 全てのノードを一つのプロセスに統合することも可能○ 複数のプロセスを利用することも可能(ノード数>プロセス数)● コンパイルまたはランタイムで確定可能● 同一プロセスのため下記のメリット○ ゼロコピー通信が可能○ 実行順番が指定可能○ 平行または連続実行可能○ 振る舞いと実行を分離○ ライフサイクル管理ROS 2:特徴アプリケーションプロセスノードプロセスノードノードUDP上のDDSまたは共有メモリ上のDDS ゼロコピー通信
The Autoware Foundation2018年12月設立Autoware の国際展開が目的国際的企業がプレミアムメンバーとして参画Autoware.ai→ これまでのAutoware(ROS1 ベース)Autoware.IO→ センサ+ライブラリAutoware Core/Universe→ 次世代 Autowave(ROS2ベース)Autowareに関する権利を移管
Autowareも ROS2 へ移行Autoware.ai : ROS1 ベース・プロトタイプ実装・プロダクトには向いていない(認証なし)Autoware Core : ROS2ベース・製品開発に活用可能Autoware Universe : ROS2ベース・Core を包含し、研究開発に利用 ROS1 は 2025には EOL を予定
Autoware Core / Universe• AWF が主にメンテする範囲と、それ以外の領域を明確化• Core:• AWF が考慮する ODD に対応• ドキュメントも完全に• Universe:• Core の上に拡張される機能• この上で研究開発を行い機能追加• Robo-Taxi や レースなど複雑なユースケースに対応
Autowareが実現したこと• 自動運転は社会に大きなインパクトを与える• 単なる技術ではなく、革命的な変化• 産業的にも影響範囲が大きい• オープンソース化により世界中で利用可能• 自動車産業以外でも、自動運転に注目→ 何ができるのか、検証のために利用• 最新技術がすぐに導入できる• 得意な部分だけをやれば、他は借りてこられる• 多様な形態で自動運転が可能• 乗用車からゴルフカート、小型自動配送ロボットまで技術的優位性だけでなく、オープン性を武器に自動運転の民主化!
[SIP第2期自動運転(システムとサービスの拡張)]自動運転社会実現へのシナリオ
名古屋大学でのAutowareの活用• 当初は自動運転の実装を目的としてきたが、ベンチャー設立(TIER IV)で開発中心は移行• より幅広い応用に向けて、自律移動ロボットに移行(道路を走る自動車より、様々な考慮が必要)• 自律移動ロボットは、自動車と比較して、速度は遅く、体積・重量が小さいので実験には使いやすい• 倉庫分野での Autoware 応用を実施
TIER IV LogieeS-TC について• Autowareで遠隔・自動走行が可能(自己位置推定)• サイズ: 694x1100x613mm• 650mmx450mm 程度の20kg 程度の荷物を搭載可能(補強すれば100kg以上も可能)• 150kg 程度はけん引も可能(ただし、けん引の仕組みは要検討)• 駆動方式:対向2輪型駆動(2輪独立駆動)• 車輪サイズ:16inch• 移動速度: 6km程度• 最大移動距離:16-24 km程度Autowareによる自動制御の例
自律移動ロボットの実験場所23◼物流センター 2Fの実際の倉庫の一部で実証(実作業を行っている中で、混在して実験を実施)
Autoware で得られた点群3次元地図24
25
Autoware 対応をしている他のロボット• ROSベースのため、ベースのロボットの変更が容易MiRThouzer(Doog)
固定LiDAR+カメラとの連携LiDAR : Robosense LiDAR-M1 :75万点/秒FOV: ±12.5度(自動運転用を固定設置で利用)カメラ : 4K解像度
ロボット側からの視点
画像処理による作業者の認識
画像処理による作業者の認識
その他の応用• ディスプレイロボット• バッテリーロボット
TIER IVSpeakerSaito Yukihiro前職ではソニー株式会社の研究開発本部に所属し、自律移動ロボティクスシステムのソフトウェア開発に従事。現在はTIER IVにて、自動運転OSS「Autoware」における全体アーキテクチャ設計および認識モジュールの開発を担当
TIER IVCONTENTS01 / INTRODUCTION• 自動運転の意義とは• 自動運転がもたらす世界• 自動運転の歴史02 / TECHNOLOGY• Autowareから見た世界• Autowareのアーキテクチャー• Vehicle & Sensors• Sensing & Localization• Perception: Traffic Light Recognition• Planning : Lane Driving• Control• Perception: Detection• Simulation & Tests03 / CLOSING
INTRODUCTION01
TIER IV自動運転の意義とは?世界で交通事故により年間130万人が死亡毎日ボーイング787が約12機墜落している換算自動車の運転による拘束車社会のアメリカでは毎日の通勤に平均1時間かかっているhttps://www.jasic.org/j/14_automated-driving/pdf/sympo5.pdf
TIER IV自動運転の歴史3720042009201420182015DARPA Grand ChallengeGoogle (Waymo)自動運転プロジェクト開始Autoware 研究開発開始The Autoware Foundation 設立AutowareリリースTIER IV設立2007DARPA Urban Challenge1920~1980磁気マーカーを使った自動運転https://www.youtube.com/watch?v=ntIczNQKfjQ&feature=youtu.behttps://www.youtube.com/watch?v=cdgQpa1pUUEhttps://ja.wikipedia.org/wiki/DARPA%E3%82%B0%E3%83%A9%E3%83%B3%E3%83%89%E3%83%BB%E3%83%81%E3%83%A3%E3%83%AC%E3%83%B3%E3%82%B8https://www.herox.com/blog/159-the-drive-for-autonomous-vehicles-the-darpa-grand1980~カメラ・レーザーレンジセンサーを用いた自動運転の研究Autoware開発推進の業界団体世界中の約50社が加入Autoware : 自動運転システム用オープンソースソフトウェア
TIER IVWhat is Autoware?The world’s first open-source autonomous driving software30+ 20+ 500+Vehicles Countries Companies
TIER IV
TECHNOLOGY02
TIER IV
TIER IV
TIER IV
TIER IV
TIER IV
TIER IV
52
TIER IV53
TIER IVDynamic ObjectTraffic LightDetection ClassifierMissionScenario SelectorControlLocalizationSensing Map Data Vehicle InterfaceSensorsLaneDrivingParking Etc.ScenarioPlanningPerceptionDetection Tracking PredictionVehicle
TIER IVDynamic ObjectMissionScenario SelectorControlMap Data Vehicle InterfaceParking Etc.ScenarioPlanningPerceptionTracking PredictionSensors VehicleLocalizationSensingLaneDrivingTraffic LightDetection ClassifierControlDetection最後にお話しします
Vehicle & Sensors
TIER IVDynamic ObjectMissionScenario SelectorControlMap Data Vehicle InterfaceParking Etc.ScenarioPlanningPerceptionDetection Tracking PredictionSensors VehicleLocalizationSensingLaneDrivingTraffic LightDetection Classifier
センサー構成図Velodyne VLS-128 Alpha Prime(LiDAR / 360° Detection)Velodyne VLP-16(LiDAR / Side/Rear Detection)Livox Horizon(LiDAR / Long-range Detection)FLIR BlackflyS w/ JetsonAGX(Camera / Object Recognition)Leopard Imaging w/ FlickerMitigation(Camera / Traffic Light Recognition)u-blox F9P(GNSS / Localization)TamagawaSeiki TAG300N(IMU/ Localization)Livox Horizon Livox HorizonLeopard Imaging38 deg + 65 degFLIR BlackflyS70 deg x 6
LiDARVelodyne (VLS-128, HDL-64E, VLS-32C, HDL-32E, VLP-16),Hesai (Pandar 20P, Pander 40P, Pandar 64),Ouster (OS-16, OS-64), Robosense (RS-32),Leishen, Innoviz, Omron
Camera- LEDフリッカー対策- HDRIMX490 一般的なカメラ
Camera-LiDARLiDAR-LiDARセンサー同期複数LiDARによる干渉回転タイミングの同期Camera x6 + LiDARによる360度センシングLiDARの回転タイミングに合わせてカメラのシャッターを切る
Sensing & Localization
TIER IVNDT Scan MatchingPCD高精度地図 LiDARセンサーデータ
TIER IVSensing & LocalizationSensingPoints PreprocessorEgo PointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction
TIER IVSensingPoints PreprocessorEgo PointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction・点群歪み補正LiDARの点群1つ1つに観測時刻を埋め込み、IMUを用いて車両移動による観測の歪みを補正歪み補正なし 歪み補正ありNDTEKFNDTEKFSensing & Localization
TIER IVSensingPoints PreprocessorEgo PointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction・Pose / Twist インターフェース研究開発が盛んに行われている他モジュールとの結合を容易に行えるように、位置と速度情報を分離して推定し、後段で処理を統合Sensing & Localization
TIER IVSensingPoints PreprocessorEgo PointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction・EKF - NDT Feedbackさまざまなセンサーを統合した推定結果を初期位置として利用し、マッチング精度を上げるNDTが苦手な環境でも継続的に動作可能・遅延対応各センサー間(車両・LiDAR・Autoware)で時刻同期を行い、計測された遅延を考慮して現在位置と速度を推定Sensing & Localization
TIER IVSensingPoints PreprocessorEgo PointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel PredictionSensing & Localization
Perception : Traffic Light Recognition
TIER IVPerception : Traffic Light RecognitionDetection ClassificationMapbasedDetectorFineDetectorCNNColor FilterSensingImage PreprocessorCameraRouteRectifierMap or・自車経路に関係する信号機のみを検出・識別・高精度マップ上の信号機との対応付Traffic Light RecognitionImage
TIER IVPerception : Traffic Light RecognitionDetection ClassificationMapbasedDetectorFineDetectorCNNColor FilterSensingImage PreprocessorCameraRouteRectifierMap or推定誤差によるずれを考慮した候補領域を生成※ 自己位置推定誤差、キャリブ誤差、バイブレーションTraffic Light RecognitionImage
TIER IVPerception : Traffic Light RecognitionDetection ClassificationMapbasedDetectorFineDetectorCNNColor FilterSensingImage PreprocessorCameraRouteRectifierMapImageor画像処理フィルタcolorfilterbinalizenoisefilter入力画像青フィルタ黄フィルタ赤フィルタredCNN red入力画像環境・カメラに対して調節がしやすい 矢印等の色識別以外に対して拡張しやすいTraffic Light Recognition
Planning : Lane Driving
TIER IV- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.Lane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlanner- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity SmoothingFromMission PlannerTrajectoryBehavior Planner:意思決定・交通ルールに関わる計画Motion Planner:車両運動に関わる計画PathPlanning : Lane DrivingRouteTo Control
TIER IV- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.Lane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlanner- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity SmoothingFromMission PlannerTrajectoryPathRouteTo ControlPlanning : Lane Driving・レーンチェンジ駐車車両やルート指示に応じてレーンチェンジを行う周囲の車両速度を見てレーンチェンジの実行可否を判断Behavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画
TIER IV・横断歩道横断歩道上の歩行者や、横断歩道に向かって走ってくる自転車等の移動予測から経路速度を調整・交差点交差点周囲の動物体の移動予測情報や、前方の渋滞車両検知結果などから、交差点における速度を調整Planning : Lane DrivingBehavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画Lane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlannerTrajectoryPathTo Control- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity SmoothingFromMission PlannerRoute
TIER IVLane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlannerFromMission PlannerTrajectoryPathRouteTo Control・障害物回避 / 経路平滑化 / 狭路走行最適化手法を用いて路駐車両や工事現場領域の回避経路を生成車両形状と走行可能領域を考慮した狭路の走行経路も対応Planning : Lane Driving Behavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity Smoothing
TIER IVLane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlannerFromMission PlannerTrajectoryPathRouteTo ControlPlanning : Lane DrivingBehavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画・速度平滑化横G・最大速度・加速度制約の下でジャーク(加速度の微分)が最小になるように経路速度を計画- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity Smoothing
Control
TIER IVControlControl Command- Steering angle- Steering angle rate- Velocity- Acceleration・Lateral Controller:経路追従のための操舵角を計算(pure pursuit / MPC)・Longitudinal Controller:目標速度へ追従するための加速度を計算(PID)・Vehicle Cmd Gate:最大速度・加速度・ジャーク制約・Accel Map Converter:目標加速度をアクセル・ブレーキペダル値へ変換Vehicle InterfaceControlTrajectory FollowerLateralControllerVehicleCmd GateAccel MapConverterTrajectoryLongitudinalControllerVehicleInterfaceToVehicleControlCommand
TIER IVControl制御指示の応答遅延 0.3 [s] x 17 [m/s] = 5.1 [m]路面環境に依存した摩擦係数の変化雨・雪など温度変化や経年劣化によるディスクブレーキ挙動の変化スロットルと加速度の非線形性ステアリング機構の摩擦・不感帯経路勾配センサー性能の限界(ジャーク計算)乗車人数に応じた質量の変化ハンドル - タイヤ 可変ギア比タイヤ弾性・空気圧
TIER IVVehicle InterfaceControlTrajectory FollowerLateralControllerVehicleCmd GateAccel MapConverterTrajectory・Lateral Controller経路追従のための操舵角を計算ControlLongitudinalControllerVehicleInterfaceToVehicleControlCommandControl Command- Steering angle- Steering angle rate- Velocity- Acceleration- pure pursuit経路の前方に目標点を設定し、そこへ向かうように目標操舵角を計算。人の操縦感覚に近い- Model Predictive Control (MPC)車両データ*を用いて将来の動作を予測し、最も上手く経路に沿う操舵角を計算。厳密な制御が可能* 操舵遅延、操舵変化率制約、横滑りなど
TIER IVVehicle InterfaceControlTrajectory FollowerLateralControllerVehicleCmd GateAccel MapConverterTrajectoryControlLongitudinalControllerVehicleInterfaceToVehicleControlCommandControl Command- Steering angle- Steering angle rate- Velocity- Acceleration・Longitudinal Controller目標速度へ沿うための目標加速度を計算(PID)加減速指示の遅延や勾配補正も対応停車時は特殊シーケンスで正着精度と乗り心地を両立・加速度マップ目標加速度を車両のアクセル・ブレーキ値に変換
Perception : Detection01 / 自動運転におけるDetection02 / 実環境での難しさ03 / Detectionの性能向上
TIER IV自動運転におけるDetection Cameraベース- CenterNet, SMOKE, etc. LiDARベース- PointPillars, CenterPoint, etc. Camera-LiDARベース- Frustum PointNet, etc.2D Box detection3D Box detection Cameraベース- Yolo系, SSD系, etc.空間情報がわかる3Dの方が多くの自動運転システムと相性が良い画像上での位置はわかるが空間情報がない
TIER IV自動運転におけるDetection Cameraベース- CenterNet, SMOKE, etc. LiDARベース- PointPillars, CenterPoint, etc. Camera-LiDARベース- Frustum PointNet, etc.○ センサーが安価✖ カメラの内部パラメータまで学習されるため他データセットで転用しにくい✖ 数十mまでしか距離推定精度がでない(解像度依存)✖ 360度認識するには複数台必要になり計算コストが大きい○ 360度認識する計算コストが低い○ 100m以上まで距離推定精度が安定する✖ 他データセットで学習したものでは実環境で精度を出しにくい✖ センサーが高価※LiDARベースのPros/Consを引き継ぐ○ 形状的な特徴が少ないものでも検出が安定✖ 手法によってはCamera-LiDARの外部パラメータを学習するため、他データセットで転用しにくい✖ 計算コストが大きい
TIER IV自動運転におけるDetection Cameraベース- CenterNet, SMOKE, etc. LiDARベース- PointPillars, CenterPoint, etc. Camera-LiDARベース- Frustum PointNet, etc.○ センサーが安価✖ カメラの内部パラメータまで学習されるため他データセットで転用しにくい✖ 数十mまでしか距離推定精度がでない(解像度依存)✖ 360度認識するには複数台必要になり計算コストが大きい○ 360度認識する計算コストが低い○ 100m以上まで距離推定精度が安定する✖ 他データセットで学習したものでは実環境で精度を出しにくい✖ センサーが高価※LiDARベースのPros/Consを引き継ぐ○ 形状的な特徴が少ないものでも検出が安定✖ 手法によってはCamera-LiDARの外部パラメータを学習するため、他データセットで転用しにくい✖ 計算コストが大きい
TIER IVAutowareで現在実装されているDetectionの構成例CenterPointInstance SegmentationMerger2D BB FusionYOLOValidatorClusteringShape EstimationDetection ByTrackerMulti Object TrackingDetection LayerTracking Layer
TIER IVPointRCNN [1]PointPillarsSECONDVoxelNetSTD [2] 3DSSD [3]SA-SSDPV-RCNNLiDAR-based 3D DetectionVoxelNet-based approachesPointNet-based approaches[1] Shi, Shaoshuai, Xiaogang Wang, and Hongsheng Li. "Pointrcnn: 3d object proposal generation and detection from point cloud." Proceedings of the IEEEConference on Computer Vision and Pattern Recognition. 2019.[2] Yang, Zetong, et al. "Std: Sparse-to-dense 3d object detector for point cloud." Proceedings of the IEEE International Conference on Computer Vision. 2019.[3] Yang, Zetong, et al. "3dssd: Point-based 3d single stage object detector." Proceedings of the IEEE/CVF Conference on Computer Vision and PatternRecognition. 2020.CenterPoint計算コストと精度を両立
TIER IVCenterPointYin, Tianwei, Xingyi Zhou, and Philipp Krähenbühl. "Center-based 3d object detection and tracking." arXiv preprint arXiv:2006.11275 (2020).Ge, Runzhou, et al. "Afdet: Anchor free one stage 3d object detection." arXiv preprint arXiv:2006.12671 (2020).点群をBEVの特徴量画像に変換 物体の中心を当てに行き、大きさ姿勢も同時に出力Lang, Alex H., et al. "Pointpillars: Fast encoders for object detection from point clouds." Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition. 2019.
TIER IVTrain: WaymoInference: Waymoオープンデータセット nuScenes Waymo Open Dataset Kitti Dataset A2D2 Lyft Level 5 Dataset Etc.Train: nuScenesInference: TIER IV実環境での応用の難しさ学習とは異なるデータセットで推論した場合、精度が大幅に低下要因- センサ構成/取付位置- センサモデル- 走行環境
TIER IVData Augmentationによる汎化性能向上Train: nuScenes without DAInference: TIER IVTrain: nuScenes with DAInference: TIER IVData Augmentation X軸・Y軸反転 スケーリング- 原点中心・Z軸方向 回転- Z軸・X軸・Y軸方向 平行移動- z方向 点群のダウンサンプル 点群のノイズ- 疑似的な雨や霧 物体のコピー&ペースト
TIER IV実環境で精度を出すためのその他の手段 Domain Adaptationの活用 Synthetic Dataの活用 自前データセットの作成研究段階で実応用はこれから- 例: ST3D++(Unsupervised Domain Adaptation)Train: WaymoEvaluation: KITTICAR AP(0.7)easy medium hardWithout Domain Adaptation 12.50 12.85 13.87With Domain Adaptation 70.85 63.49 64.52※各スライドでの評価結果とは評価データセットが異なるためあくまでもスライド内における相対指標となります
TIER IVCenterPointの改善の一部の例 BEVベースでは情報の損失が大きく、立体的な情報が失われる- BEVではトラックと壁の区別がつきにくい Single Frameでは精度が出ない点群をBEVの特徴量画像に変換CenterPointYOLO Range Image basedSemantic SegmentationPointPaintingによるCamera画像やLiDARのRangeImageの活用※今回はCamera画像を話しますMulti FrameによるDensification(副効果として物体の速度出力も可能)
TIER IVCenterPointの改善の一部の例 BEVベースでは情報の損失が大きく、立体的な情報が失われる- BEVではトラックと壁の区別がつきにくい Single Frameでは精度が出ない点群をBEVの特徴量画像に変換CenterPointYOLO Range Image basedSemantic SegmentationPointPaintingによるCamera画像やLiDARのRangeImageの活用※今回はCamera画像を話しますMulti FrameによるDensification(副効果として物体の速度出力も可能)
TIER IVPointPaintingoff-the-shelfoff-the-shelfwith cameracalibration paramsVora, Sourabh, et al. "Pointpainting: Sequential fusion for 3d object detection." Proceedings of the IEEE/CVF Conference on Computer Vision andPattern Recognition. 2020.97利点 いろいろな手法を取り込みやすい- Cameraの2Dの検出器やLiDARのSemantic Segmentationなど 異なるセンサーをフュージョンする際にキャリブレーション結果はパラメータとして追い出せる
TIER IVmAP CAR AP Pedestrian AP Cyclist APCenterPoint 60.58 73.56 53.00 38.89CenterPoint withPointPaintingGT 71.13 74.32 59.95 61.90yolov4 (COCOdataset)68.11 74.62 57.27 55.99PointPaintingによるCamera画像の活用 ※各スライドでの評価結果とは評価データセットが異なるためあくまでもスライド内における相対指標となります
TIER IVmAP CAR AP Pedestrian AP Cyclist APCenterPoint 60.58 73.56 53.00 38.89CenterPoint withPointPaintingGT 71.13 74.32 59.95 61.90yolov4 (COCOdataset)68.11 74.62 57.27 55.99PointPaintingによるCamera画像の活用
TIER IVCenterPointの改善の一部の例 BEVベースでは情報の損失が大きく、立体的な情報が失われる- BEVではトラックと壁の区別がつきにくい Single Frameでは精度が出ない点群をBEVの特徴量画像に変換CenterPointYOLO Range Image basedSemantic SegmentationPointPaintingによるCamera画像やLiDARのRangeImageの活用※今回はCamera画像を話しますMulti FrameによるDensification(副効果として物体の速度出力も可能)
TIER IVCurrentVehicleCoordinatesGlobalCoordinatesPastVehicleCoordinatesMulti FrameによるDensificationwithout transformation with transformationmovingobjectstaticobjectCenterPointの入力点群に現在フレームからの時間差を特徴量として追加
TIER IVMulti FrameによるDensificationMulti Frameをinputすることにより精度向上と同時にoutputとしてDetectionの段階でオブジェクトの速度の学習が可能に※一部オブジェクトの残像は、開発時の可視化の不具合
TIER IVMethod Car AP Pedestrian AP Cyclist AP Inference timeCenterPoint 82.94 35.07 32.66 49.7 msCenterPoint + Densification 84.73 46.30 59.90 64.4 msCenterPoint + PointPainting 83.71 49.53 62.89 63.3 msCenterPoint + Densification + PointPainting 85.29 52.79 66.66 85.0 msMulti FrameによるDensificationEnvironment:Core i7 10700K / GeForce GTX 1060 6G / CUDA 10.2 / cuDNN 7.6.5 / TensorRT 7.0.0※各スライドでの評価結果とは評価データセットが異なるためあくまでもスライド内における相対指標となります
Simulator & Test
105ROSBAGreplaySimulatorPlanning SimulatorEnd2EndSimulatorReal TestSensing ◯ ◯ ◯Localization ◯ ◯ ◯Perception ◯◯(一部)・Detection(疑似点群生成機能の利用)・Tracking・Perception◯ ◯Planning ◯ ◯ ◯Control ◯(一部)・ステアリング、加減速の遅延、振動を模擬◯ ◯OSS化準備中
CLOSING03
107https://www.youtube.com/watch?v=iW-a7cKUxuYAutowareに興味がある方は、インストールからチュートリアルの動作までの動画を作成したのでこちらをご覧ください最後にGithub: https://github.com/autowarefoundation/autowareDocumentation: https://autowarefoundation.github.io/autoware-documentation/main/Q&A: https://github.com/autowarefoundation/autoware/discussionsIssue: https://github.com/autowarefoundation/autoware.universe/issuesDiscord: https://discord.com/invite/Q94UsPvReQスターを付けてもらえると嬉しいです

Recommended

PDF
オープンソース SLAM の分類
PDF
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
 
PDF
Visual slam
PDF
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
PDF
Cartographer を用いた 3D SLAM
PDF
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
PDF
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
PDF
30th コンピュータビジョン勉強会@関東 DynamicFusion
PDF
UnityとROSの連携について
PDF
ロボティクスにおける SLAM 手法と実用化例
PDF
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
 
PDF
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
PDF
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
PDF
ROS を用いた自律移動ロボットのシステム構築
PDF
20190307 visualslam summary
PPTX
ORB-SLAMの手法解説
PDF
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
PDF
画像認識の初歩、SIFT,SURF特徴量
PDF
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
PDF
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
PDF
tf,tf2完全理解
PDF
LiDAR-SLAM チュートリアル資料
PDF
リンク機構を有するロボットをGazeboで動かす
PDF
Sift特徴量について
PPTX
SLAM勉強会(3) LSD-SLAM
PDF
SLAM開発における課題と対策の一例の紹介
PDF
ROSによる今後のロボティクスのあり方
PDF
LiDARとSensor Fusion

More Related Content

PDF
オープンソース SLAM の分類
PDF
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
 
PDF
Visual slam
PDF
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
PDF
Cartographer を用いた 3D SLAM
PDF
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
PDF
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
PDF
30th コンピュータビジョン勉強会@関東 DynamicFusion
オープンソース SLAM の分類
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
 
Visual slam
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
Cartographer を用いた 3D SLAM
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
30th コンピュータビジョン勉強会@関東 DynamicFusion

What's hot

PDF
UnityとROSの連携について
PDF
ロボティクスにおける SLAM 手法と実用化例
PDF
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
 
PDF
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
PDF
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
PDF
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
PDF
ROS を用いた自律移動ロボットのシステム構築
PDF
20190307 visualslam summary
PPTX
ORB-SLAMの手法解説
PDF
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
PDF
画像認識の初歩、SIFT,SURF特徴量
PDF
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
PDF
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
PDF
tf,tf2完全理解
PDF
LiDAR-SLAM チュートリアル資料
PDF
リンク機構を有するロボットをGazeboで動かす
PDF
Sift特徴量について
PPTX
SLAM勉強会(3) LSD-SLAM
PDF
SLAM開発における課題と対策の一例の紹介
UnityとROSの連携について
ロボティクスにおける SLAM 手法と実用化例
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
 
Autoware: ROSを用いた一般道自動運転向けソフトウェアプラットフォーム
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
ROS を用いた自律移動ロボットのシステム構築
20190307 visualslam summary
ORB-SLAMの手法解説
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
画像認識の初歩、SIFT,SURF特徴量
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
tf,tf2完全理解
LiDAR-SLAM チュートリアル資料
リンク機構を有するロボットをGazeboで動かす
Sift特徴量について
SLAM勉強会(3) LSD-SLAM
SLAM開発における課題と対策の一例の紹介

Similar to SSII2022 [TS2] 自律移動ロボットのためのロボットビジョン〜 オープンソースの自動運転ソフトAutowareを解説 〜

PDF
ROSによる今後のロボティクスのあり方
PDF
LiDARとSensor Fusion
PDF
Teslaにおけるコンピュータビジョン技術の調査
PDF
Cartographer と Autoware を用いた自律走行
PPTX
Autowareの紹介と物体検出
PDF
Mobilitydev2019 10 31_slideshare
PDF
Tier Ⅳ Tech Meetup #1 - 世界初オープンソースの自動運転ソフトウェア「Autoware」ができること & 開発秘話 -
PDF
Tier Ⅳ Tech Meetup #2 - 自動運転を作るのはCloudシステムの集合体?? 活用技術を大解剖 -
PDF
つくばチャレンジ2023シンポジウム 発表資料
PDF
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
PDF
G空間情報シンポ 20161122 v1.1
PDF
Self-Driving System with IoT
PDF
【卒業論文】ステレオカメラによる車両制御における深層学習の適用に関する研究(A Study on Application of Deep Learning...
PPTX
未来の産業モビリティメイキング #3 in 横浜 0605
PDF
NEDO特別講座_画像処理・AI技術活用コース_後編
PPTX
Si2017 チームイエスマン 発表スライド
PDF
IoTの社会応用への展望とその課題 : AI技術とIoT
PPTX
【日商USA】webinar 2023.10.6 クラウドだけじゃない!Edge AIの進化とは?
PPTX
2020 08-01 ALGYAN AI&ロボティクス (1)
PDF
01 yamashita
ROSによる今後のロボティクスのあり方
LiDARとSensor Fusion
Teslaにおけるコンピュータビジョン技術の調査
Cartographer と Autoware を用いた自律走行
Autowareの紹介と物体検出
Mobilitydev2019 10 31_slideshare
Tier Ⅳ Tech Meetup #1 - 世界初オープンソースの自動運転ソフトウェア「Autoware」ができること & 開発秘話 -
Tier Ⅳ Tech Meetup #2 - 自動運転を作るのはCloudシステムの集合体?? 活用技術を大解剖 -
つくばチャレンジ2023シンポジウム 発表資料
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
G空間情報シンポ 20161122 v1.1
Self-Driving System with IoT
【卒業論文】ステレオカメラによる車両制御における深層学習の適用に関する研究(A Study on Application of Deep Learning...
未来の産業モビリティメイキング #3 in 横浜 0605
NEDO特別講座_画像処理・AI技術活用コース_後編
Si2017 チームイエスマン 発表スライド
IoTの社会応用への展望とその課題 : AI技術とIoT
【日商USA】webinar 2023.10.6 クラウドだけじゃない!Edge AIの進化とは?
2020 08-01 ALGYAN AI&ロボティクス (1)
01 yamashita

More from SSII

PDF
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
 
PDF
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
PDF
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
PDF
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
PDF
SSII2022 [OS3-02] Federated Learningの基礎と応用
 
PDF
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
 
PDF
SSII2022 [OS1-01] AI時代のチームビルディング
 
PDF
SSII2022 [OS3-01] 深層学習のための効率的なデータ収集と活用
 
PDF
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
 
PDF
SSII2021 [OS3-01] 設備や環境の高品質計測点群取得と自動モデル化技術
 
PDF
SSII2022 [OS2-01] イメージング最前線
 
PDF
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
PDF
SSII2021 [OS3-03] 画像と点群を用いた、森林という広域空間のゾーニングと施業管理
 
PDF
SSII2022 [OS3-04] Human-in-the-Loop 機械学習
 
PDF
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
 
PDF
SSII2021 [OS3-02] BIM/CIMにおいて安価に点群を取得する目的とその利活用
 
PDF
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)
 
PDF
SSII2021 [SS2] Deepfake Generation and Detection – An Overview (ディープフェイクの生成と検出)
 
PDF
SSII2021 [OS1-03] エネルギーの情報化:需要家主体の分散協調型電力マネージメント
 
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
 
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
 
SSII2022 [OS1-01] AI時代のチームビルディング
 
SSII2022 [OS3-01] 深層学習のための効率的なデータ収集と活用
 
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
 
SSII2021 [OS3-01] 設備や環境の高品質計測点群取得と自動モデル化技術
 
SSII2022 [OS2-01] イメージング最前線
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
SSII2021 [OS3-03] 画像と点群を用いた、森林という広域空間のゾーニングと施業管理
 
SSII2022 [OS3-04] Human-in-the-Loop 機械学習
 
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集​ 〜 精度向上のための仕組み・倫理や社会性バイアス 〜
 
SSII2021 [OS3-02] BIM/CIMにおいて安価に点群を取得する目的とその利活用
 
SSII2021 [OS3] 広域環境の3D計測と認識 ~ 人が活動する場のセンシングとモデル化 ~(オーガナイザーによる冒頭の導入)
 
SSII2021 [SS2] Deepfake Generation and Detection – An Overview (ディープフェイクの生成と検出)
 
SSII2021 [OS1-03] エネルギーの情報化:需要家主体の分散協調型電力マネージメント
 

SSII2022 [TS2] 自律移動ロボットのためのロボットビジョン〜 オープンソースの自動運転ソフトAutowareを解説 〜

  • 1.
  • 2.
    本日のチュートリアル構成• イントロ: 河口信夫(名古屋大/TIER IV)• 自律移動ロボットとは• ROSとは? Autoware とは?• The Autoware Foundation• Autoware.ai から Autoware Core/Universe へ• メイン:斉藤 之寛 (TIER IV)• 自動運転• Autowareのアーキテクチャ• 自動運転のためのロボットビジョン
  • 3.
    自己紹介:河口 信夫(かわぐち のぶお)名古屋大学工学研究科 情報・通信工学専攻 教授(未来社会創造機構モビリティ社会研究所 副所長)TMI (超学際移動イノベーション)卓越大学院 コーディネータ自動運転ベンチャー (株) ティアフォー フェローNPO法人位置情報サービス研究機構(Lisra) 代表理事総務省スマートIoT推進フォーラム テストベッド分科会長・研究テーマ:ユビキタス・コンピューティング代表的な成果: HASC コーパス/ツール• カウントダウン時刻表アプリ「駅.Locky」(300万人が利用)• 需給交換プラットフォーム/社会活動OS Synerex駅.Locky
  • 4.
  • 5.
  • 6.
  • 7.
    自動運転ソフトウェア AutowareMachine Learning/DeepLearningMany-Core CPUs GPUsEmbedded OS RTOS and Real-Time LinuxROSCUDAECUECUECUECUCANCamera GNSSLIDARRadarOpenCVPCLMonitoringADAS SafetyControlControlControlControlPerception Planning ControlAutonomous Driving SystemVehicular SystemDriver InterfaceCarDriverDistributedDataProceesingLarge-scaleDBMSIn-memoryDBMSPedestrianFPGAsStatistical Analysishttps://github.com/autowarefoundation/autoware2015年に名古屋大が公開※AutowareはThe Autoware Foundationの登録商標です
  • 8.
    (Robot Operating System)とは?•ロボット向けに多様なセンサ・モジュール・アクチュエータを統合的に扱えるフレームワーク• ロボット開発におけるツール・ライブラリを提供• 可視化・シミュレーション・記録・通信Willow Garage が2007年から開発(ちなみに、OpenCVの開発にも2008年に参加)• 2009年に最初のROSが公開(0.4)• 2010年にROS1.0• 2012年に、OSRF が設立 2013年からは開発を主導(現在では Open Robotics に)• 2017年からは ROS2 もリリース
  • 9.
    の特長• ノード(モジュール)の集合としてシステムを構築• ノード間は「トピック」と呼ばれるチャンネルを通じて通信•複数PC間でも通信可能• Publish/Subscribe 形式での通信 (送受信の分離)• 多数のパッケージが公開• ナビゲーション、ロボットハンド• ハードウェアドライバ• ライブラリ(PCL, OpenCV)• 連携ツール
  • 10.
  • 11.
    ROS1からROS2へ• ROS1は、研究開発を主なターゲット• 品質保証の枠組みが無く、障害に弱い•ターゲットOSが実質的に Ubuntu のみ• 開発プロセスなどの定義もなし• 独自の通信プロトコル• リアルタイム性などを保障し「プロダクト」として利用できるソフトウェアが必要→ ROS2では、これらの課題を解決・開発プロセスを定め、品質を保証・CIのダッシュボードなどを整備・標準化された通信プロトコルを導入(OMG標準 DDS)
  • 13.
    ● Master が単一障害点●すべてのノードが1つのプロセス● プロセス間でリソースは共有不可能● 「Nodelet」という仕組みはあるが。。。○ 別API(実装時間で選択)○ 壊れやすい○ 共有ポインター通信のみ○ QoSなし● 実行管理/起動順管理が困難○ 実行順序を変えるためには再起動ROS 1:特徴Masterアプリケーションプロセスノードプロセスノードプロセスノード
  • 14.
    ● Masterなしで、DDSで通信(相互に Discovery)●複数ノードを同一のプロセスに統合可能○ 全てのノードを一つのプロセスに統合することも可能○ 複数のプロセスを利用することも可能(ノード数>プロセス数)● コンパイルまたはランタイムで確定可能● 同一プロセスのため下記のメリット○ ゼロコピー通信が可能○ 実行順番が指定可能○ 平行または連続実行可能○ 振る舞いと実行を分離○ ライフサイクル管理ROS 2:特徴アプリケーションプロセスノードプロセスノードノードUDP上のDDSまたは共有メモリ上のDDS ゼロコピー通信
  • 15.
    The Autoware Foundation2018年12月設立Autowareの国際展開が目的国際的企業がプレミアムメンバーとして参画Autoware.ai→ これまでのAutoware(ROS1 ベース)Autoware.IO→ センサ+ライブラリAutoware Core/Universe→ 次世代 Autowave(ROS2ベース)Autowareに関する権利を移管
  • 16.
    Autowareも ROS2 へ移行Autoware.ai: ROS1 ベース・プロトタイプ実装・プロダクトには向いていない(認証なし)Autoware Core : ROS2ベース・製品開発に活用可能Autoware Universe : ROS2ベース・Core を包含し、研究開発に利用 ROS1 は 2025には EOL を予定
  • 17.
    Autoware Core /Universe• AWF が主にメンテする範囲と、それ以外の領域を明確化• Core:• AWF が考慮する ODD に対応• ドキュメントも完全に• Universe:• Core の上に拡張される機能• この上で研究開発を行い機能追加• Robo-Taxi や レースなど複雑なユースケースに対応
  • 18.
    Autowareが実現したこと• 自動運転は社会に大きなインパクトを与える• 単なる技術ではなく、革命的な変化•産業的にも影響範囲が大きい• オープンソース化により世界中で利用可能• 自動車産業以外でも、自動運転に注目→ 何ができるのか、検証のために利用• 最新技術がすぐに導入できる• 得意な部分だけをやれば、他は借りてこられる• 多様な形態で自動運転が可能• 乗用車からゴルフカート、小型自動配送ロボットまで技術的優位性だけでなく、オープン性を武器に自動運転の民主化!
  • 19.
  • 20.
    名古屋大学でのAutowareの活用• 当初は自動運転の実装を目的としてきたが、ベンチャー設立(TIER IV)で開発中心は移行•より幅広い応用に向けて、自律移動ロボットに移行(道路を走る自動車より、様々な考慮が必要)• 自律移動ロボットは、自動車と比較して、速度は遅く、体積・重量が小さいので実験には使いやすい• 倉庫分野での Autoware 応用を実施
  • 21.
    TIER IV LogieeS-TCについて• Autowareで遠隔・自動走行が可能(自己位置推定)• サイズ: 694x1100x613mm• 650mmx450mm 程度の20kg 程度の荷物を搭載可能(補強すれば100kg以上も可能)• 150kg 程度はけん引も可能(ただし、けん引の仕組みは要検討)• 駆動方式:対向2輪型駆動(2輪独立駆動)• 車輪サイズ:16inch• 移動速度: 6km程度• 最大移動距離:16-24 km程度Autowareによる自動制御の例
  • 23.
  • 24.
  • 25.
  • 27.
  • 28.
    固定LiDAR+カメラとの連携LiDAR : RobosenseLiDAR-M1 :75万点/秒FOV: ±12.5度(自動運転用を固定設置で利用)カメラ : 4K解像度
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
    TIER IVSpeakerSaito Yukihiro前職ではソニー株式会社の研究開発本部に所属し、自律移動ロボティクスシステムのソフトウェア開発に従事。現在はTIERIVにて、自動運転OSS「Autoware」における全体アーキテクチャ設計および認識モジュールの開発を担当
  • 34.
    TIER IVCONTENTS01 /INTRODUCTION• 自動運転の意義とは• 自動運転がもたらす世界• 自動運転の歴史02 / TECHNOLOGY• Autowareから見た世界• Autowareのアーキテクチャー• Vehicle & Sensors• Sensing & Localization• Perception: Traffic Light Recognition• Planning : Lane Driving• Control• Perception: Detection• Simulation & Tests03 / CLOSING
  • 35.
  • 36.
  • 37.
    TIER IV自動運転の歴史3720042009201420182015DARPA GrandChallengeGoogle (Waymo)自動運転プロジェクト開始Autoware 研究開発開始The Autoware Foundation 設立AutowareリリースTIER IV設立2007DARPA Urban Challenge1920~1980磁気マーカーを使った自動運転https://www.youtube.com/watch?v=ntIczNQKfjQ&feature=youtu.behttps://www.youtube.com/watch?v=cdgQpa1pUUEhttps://ja.wikipedia.org/wiki/DARPA%E3%82%B0%E3%83%A9%E3%83%B3%E3%83%89%E3%83%BB%E3%83%81%E3%83%A3%E3%83%AC%E3%83%B3%E3%82%B8https://www.herox.com/blog/159-the-drive-for-autonomous-vehicles-the-darpa-grand1980~カメラ・レーザーレンジセンサーを用いた自動運転の研究Autoware開発推進の業界団体世界中の約50社が加入Autoware : 自動運転システム用オープンソースソフトウェア
  • 38.
    TIER IVWhat isAutoware?The world’s first open-source autonomous driving software30+ 20+ 500+Vehicles Countries Companies
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.
  • 45.
  • 46.
  • 47.
  • 48.
  • 49.
    TIER IVDynamic ObjectTrafficLightDetection ClassifierMissionScenario SelectorControlLocalizationSensing Map Data Vehicle InterfaceSensorsLaneDrivingParking Etc.ScenarioPlanningPerceptionDetection Tracking PredictionVehicle
  • 50.
    TIER IVDynamic ObjectMissionScenarioSelectorControlMap Data Vehicle InterfaceParking Etc.ScenarioPlanningPerceptionTracking PredictionSensors VehicleLocalizationSensingLaneDrivingTraffic LightDetection ClassifierControlDetection最後にお話しします
  • 51.
  • 52.
    TIER IVDynamic ObjectMissionScenarioSelectorControlMap Data Vehicle InterfaceParking Etc.ScenarioPlanningPerceptionDetection Tracking PredictionSensors VehicleLocalizationSensingLaneDrivingTraffic LightDetection Classifier
  • 53.
    センサー構成図Velodyne VLS-128 AlphaPrime(LiDAR / 360° Detection)Velodyne VLP-16(LiDAR / Side/Rear Detection)Livox Horizon(LiDAR / Long-range Detection)FLIR BlackflyS w/ JetsonAGX(Camera / Object Recognition)Leopard Imaging w/ FlickerMitigation(Camera / Traffic Light Recognition)u-blox F9P(GNSS / Localization)TamagawaSeiki TAG300N(IMU/ Localization)Livox Horizon Livox HorizonLeopard Imaging38 deg + 65 degFLIR BlackflyS70 deg x 6
  • 54.
    LiDARVelodyne (VLS-128, HDL-64E,VLS-32C, HDL-32E, VLP-16),Hesai (Pandar 20P, Pander 40P, Pandar 64),Ouster (OS-16, OS-64), Robosense (RS-32),Leishen, Innoviz, Omron
  • 55.
  • 56.
    Camera-LiDARLiDAR-LiDARセンサー同期複数LiDARによる干渉回転タイミングの同期Camera x6 +LiDARによる360度センシングLiDARの回転タイミングに合わせてカメラのシャッターを切る
  • 57.
  • 58.
    TIER IVNDT ScanMatchingPCD高精度地図 LiDARセンサーデータ
  • 59.
    TIER IVSensing &LocalizationSensingPoints PreprocessorEgo PointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction
  • 60.
    TIER IVSensingPoints PreprocessorEgoPointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction・点群歪み補正LiDARの点群1つ1つに観測時刻を埋め込み、IMUを用いて車両移動による観測の歪みを補正歪み補正なし 歪み補正ありNDTEKFNDTEKFSensing & Localization
  • 61.
    TIER IVSensingPoints PreprocessorEgoPointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction・Pose / Twist インターフェース研究開発が盛んに行われている他モジュールとの結合を容易に行えるように、位置と速度情報を分離して推定し、後段で処理を統合Sensing & Localization
  • 62.
    TIER IVSensingPoints PreprocessorEgoPointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel Prediction・EKF - NDT Feedbackさまざまなセンサーを統合した推定結果を初期位置として利用し、マッチング精度を上げるNDTが苦手な環境でも継続的に動作可能・遅延対応各センサー間(車両・LiDAR・Autoware)で時刻同期を行い、計測された遅延を考慮して現在位置と速度を推定Sensing & Localization
  • 63.
    TIER IVSensingPoints PreprocessorEgoPointsRemoverDistortionCorrectionOutlierFilterLiDARConcatIMUDriverGNSSDriverIMUVehicle Data Vehicle VehicleInterfaceMapGNSSLocalizationPose EstimatorTwist EstimatorPose Twist FusionFilterLocalizer DiagnosticsCropRangeDownSamplerNDT ScanMatcherIMU wheelvelocity fuserPoseInitializerSafety Diagnostic NodeLocalization SystemDiagnostic NodeDelay GateMahalanobisGateMeasurementUpdateModel PredictionSensing & Localization
  • 64.
    Perception : TrafficLight Recognition
  • 65.
    TIER IVPerception :Traffic Light RecognitionDetection ClassificationMapbasedDetectorFineDetectorCNNColor FilterSensingImage PreprocessorCameraRouteRectifierMap or・自車経路に関係する信号機のみを検出・識別・高精度マップ上の信号機との対応付Traffic Light RecognitionImage
  • 66.
    TIER IVPerception :Traffic Light RecognitionDetection ClassificationMapbasedDetectorFineDetectorCNNColor FilterSensingImage PreprocessorCameraRouteRectifierMap or推定誤差によるずれを考慮した候補領域を生成※ 自己位置推定誤差、キャリブ誤差、バイブレーションTraffic Light RecognitionImage
  • 67.
    TIER IVPerception :Traffic Light RecognitionDetection ClassificationMapbasedDetectorFineDetectorCNNColor FilterSensingImage PreprocessorCameraRouteRectifierMapImageor画像処理フィルタcolorfilterbinalizenoisefilter入力画像青フィルタ黄フィルタ赤フィルタredCNN red入力画像環境・カメラに対して調節がしやすい 矢印等の色識別以外に対して拡張しやすいTraffic Light Recognition
  • 68.
  • 69.
    TIER IV- BlindSpot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.Lane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlanner- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity SmoothingFromMission PlannerTrajectoryBehavior Planner:意思決定・交通ルールに関わる計画Motion Planner:車両運動に関わる計画PathPlanning : Lane DrivingRouteTo Control
  • 70.
    TIER IV- BlindSpot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.Lane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlanner- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity SmoothingFromMission PlannerTrajectoryPathRouteTo ControlPlanning : Lane Driving・レーンチェンジ駐車車両やルート指示に応じてレーンチェンジを行う周囲の車両速度を見てレーンチェンジの実行可否を判断Behavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画
  • 71.
    TIER IV・横断歩道横断歩道上の歩行者や、横断歩道に向かって走ってくる自転車等の移動予測から経路速度を調整・交差点交差点周囲の動物体の移動予測情報や、前方の渋滞車両検知結果などから、交差点における速度を調整Planning :Lane DrivingBehavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画Lane DrivingBehavior PlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlannerTrajectoryPathTo Control- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity SmoothingFromMission PlannerRoute
  • 72.
    TIER IVLane DrivingBehaviorPlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlannerFromMission PlannerTrajectoryPathRouteTo Control・障害物回避 / 経路平滑化 / 狭路走行最適化手法を用いて路駐車両や工事現場領域の回避経路を生成車両形状と走行可能領域を考慮した狭路の走行経路も対応Planning : Lane Driving Behavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity Smoothing
  • 73.
    TIER IVLane DrivingBehaviorPlannerBehaviorPathPlannerMotion PlannerBehaviorVelocityPlannerMotionPathPlannerMotionVelocityPlannerFromMission PlannerTrajectoryPathRouteTo ControlPlanning : Lane DrivingBehavior Planner:交通ルールに関わる計画Motion Planner:車両運動に関わる計画・速度平滑化横G・最大速度・加速度制約の下でジャーク(加速度の微分)が最小になるように経路速度を計画- Blind Spot- Crosswalk- Intersection- Stop Line- Traffic Light- Detection Area- etc.- Lane Change - Obstacle Avoidance- Path Smoothing- Narrow Space Driving- Obstacle Stop- Car Following- Velocity Smoothing
  • 74.
  • 75.
    TIER IVControlControl Command-Steering angle- Steering angle rate- Velocity- Acceleration・Lateral Controller:経路追従のための操舵角を計算(pure pursuit / MPC)・Longitudinal Controller:目標速度へ追従するための加速度を計算(PID)・Vehicle Cmd Gate:最大速度・加速度・ジャーク制約・Accel Map Converter:目標加速度をアクセル・ブレーキペダル値へ変換Vehicle InterfaceControlTrajectory FollowerLateralControllerVehicleCmd GateAccel MapConverterTrajectoryLongitudinalControllerVehicleInterfaceToVehicleControlCommand
  • 76.
    TIER IVControl制御指示の応答遅延 0.3[s] x 17 [m/s] = 5.1 [m]路面環境に依存した摩擦係数の変化雨・雪など温度変化や経年劣化によるディスクブレーキ挙動の変化スロットルと加速度の非線形性ステアリング機構の摩擦・不感帯経路勾配センサー性能の限界(ジャーク計算)乗車人数に応じた質量の変化ハンドル - タイヤ 可変ギア比タイヤ弾性・空気圧
  • 77.
    TIER IVVehicle InterfaceControlTrajectoryFollowerLateralControllerVehicleCmd GateAccel MapConverterTrajectory・Lateral Controller経路追従のための操舵角を計算ControlLongitudinalControllerVehicleInterfaceToVehicleControlCommandControl Command- Steering angle- Steering angle rate- Velocity- Acceleration- pure pursuit経路の前方に目標点を設定し、そこへ向かうように目標操舵角を計算。人の操縦感覚に近い- Model Predictive Control (MPC)車両データ*を用いて将来の動作を予測し、最も上手く経路に沿う操舵角を計算。厳密な制御が可能* 操舵遅延、操舵変化率制約、横滑りなど
  • 78.
    TIER IVVehicle InterfaceControlTrajectoryFollowerLateralControllerVehicleCmd GateAccel MapConverterTrajectoryControlLongitudinalControllerVehicleInterfaceToVehicleControlCommandControl Command- Steering angle- Steering angle rate- Velocity- Acceleration・Longitudinal Controller目標速度へ沿うための目標加速度を計算(PID)加減速指示の遅延や勾配補正も対応停車時は特殊シーケンスで正着精度と乗り心地を両立・加速度マップ目標加速度を車両のアクセル・ブレーキ値に変換
  • 79.
    Perception : Detection01/ 自動運転におけるDetection02 / 実環境での難しさ03 / Detectionの性能向上
  • 80.
    TIER IV自動運転におけるDetection Cameraベース-CenterNet, SMOKE, etc. LiDARベース- PointPillars, CenterPoint, etc. Camera-LiDARベース- Frustum PointNet, etc.2D Box detection3D Box detection Cameraベース- Yolo系, SSD系, etc.空間情報がわかる3Dの方が多くの自動運転システムと相性が良い画像上での位置はわかるが空間情報がない
  • 81.
    TIER IV自動運転におけるDetection Cameraベース-CenterNet, SMOKE, etc. LiDARベース- PointPillars, CenterPoint, etc. Camera-LiDARベース- Frustum PointNet, etc.○ センサーが安価✖ カメラの内部パラメータまで学習されるため他データセットで転用しにくい✖ 数十mまでしか距離推定精度がでない(解像度依存)✖ 360度認識するには複数台必要になり計算コストが大きい○ 360度認識する計算コストが低い○ 100m以上まで距離推定精度が安定する✖ 他データセットで学習したものでは実環境で精度を出しにくい✖ センサーが高価※LiDARベースのPros/Consを引き継ぐ○ 形状的な特徴が少ないものでも検出が安定✖ 手法によってはCamera-LiDARの外部パラメータを学習するため、他データセットで転用しにくい✖ 計算コストが大きい
  • 82.
    TIER IV自動運転におけるDetection Cameraベース-CenterNet, SMOKE, etc. LiDARベース- PointPillars, CenterPoint, etc. Camera-LiDARベース- Frustum PointNet, etc.○ センサーが安価✖ カメラの内部パラメータまで学習されるため他データセットで転用しにくい✖ 数十mまでしか距離推定精度がでない(解像度依存)✖ 360度認識するには複数台必要になり計算コストが大きい○ 360度認識する計算コストが低い○ 100m以上まで距離推定精度が安定する✖ 他データセットで学習したものでは実環境で精度を出しにくい✖ センサーが高価※LiDARベースのPros/Consを引き継ぐ○ 形状的な特徴が少ないものでも検出が安定✖ 手法によってはCamera-LiDARの外部パラメータを学習するため、他データセットで転用しにくい✖ 計算コストが大きい
  • 83.
    TIER IVAutowareで現在実装されているDetectionの構成例CenterPointInstance SegmentationMerger2DBB FusionYOLOValidatorClusteringShape EstimationDetection ByTrackerMulti Object TrackingDetection LayerTracking Layer
  • 84.
    TIER IVPointRCNN [1]PointPillarsSECONDVoxelNetSTD[2] 3DSSD [3]SA-SSDPV-RCNNLiDAR-based 3D DetectionVoxelNet-based approachesPointNet-based approaches[1] Shi, Shaoshuai, Xiaogang Wang, and Hongsheng Li. "Pointrcnn: 3d object proposal generation and detection from point cloud." Proceedings of the IEEEConference on Computer Vision and Pattern Recognition. 2019.[2] Yang, Zetong, et al. "Std: Sparse-to-dense 3d object detector for point cloud." Proceedings of the IEEE International Conference on Computer Vision. 2019.[3] Yang, Zetong, et al. "3dssd: Point-based 3d single stage object detector." Proceedings of the IEEE/CVF Conference on Computer Vision and PatternRecognition. 2020.CenterPoint計算コストと精度を両立
  • 85.
    TIER IVCenterPointYin, Tianwei,Xingyi Zhou, and Philipp Krähenbühl. "Center-based 3d object detection and tracking." arXiv preprint arXiv:2006.11275 (2020).Ge, Runzhou, et al. "Afdet: Anchor free one stage 3d object detection." arXiv preprint arXiv:2006.12671 (2020).点群をBEVの特徴量画像に変換 物体の中心を当てに行き、大きさ姿勢も同時に出力Lang, Alex H., et al. "Pointpillars: Fast encoders for object detection from point clouds." Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition. 2019.
  • 86.
    TIER IVTrain: WaymoInference:Waymoオープンデータセット nuScenes Waymo Open Dataset Kitti Dataset A2D2 Lyft Level 5 Dataset Etc.Train: nuScenesInference: TIER IV実環境での応用の難しさ学習とは異なるデータセットで推論した場合、精度が大幅に低下要因- センサ構成/取付位置- センサモデル- 走行環境
  • 87.
    TIER IVData Augmentationによる汎化性能向上Train:nuScenes without DAInference: TIER IVTrain: nuScenes with DAInference: TIER IVData Augmentation X軸・Y軸反転 スケーリング- 原点中心・Z軸方向 回転- Z軸・X軸・Y軸方向 平行移動- z方向 点群のダウンサンプル 点群のノイズ- 疑似的な雨や霧 物体のコピー&ペースト
  • 88.
    TIER IV実環境で精度を出すためのその他の手段 DomainAdaptationの活用 Synthetic Dataの活用 自前データセットの作成研究段階で実応用はこれから- 例: ST3D++(Unsupervised Domain Adaptation)Train: WaymoEvaluation: KITTICAR AP(0.7)easy medium hardWithout Domain Adaptation 12.50 12.85 13.87With Domain Adaptation 70.85 63.49 64.52※各スライドでの評価結果とは評価データセットが異なるためあくまでもスライド内における相対指標となります
  • 89.
    TIER IVCenterPointの改善の一部の例 BEVベースでは情報の損失が大きく、立体的な情報が失われる-BEVではトラックと壁の区別がつきにくい Single Frameでは精度が出ない点群をBEVの特徴量画像に変換CenterPointYOLO Range Image basedSemantic SegmentationPointPaintingによるCamera画像やLiDARのRangeImageの活用※今回はCamera画像を話しますMulti FrameによるDensification(副効果として物体の速度出力も可能)
  • 90.
    TIER IVCenterPointの改善の一部の例 BEVベースでは情報の損失が大きく、立体的な情報が失われる-BEVではトラックと壁の区別がつきにくい Single Frameでは精度が出ない点群をBEVの特徴量画像に変換CenterPointYOLO Range Image basedSemantic SegmentationPointPaintingによるCamera画像やLiDARのRangeImageの活用※今回はCamera画像を話しますMulti FrameによるDensification(副効果として物体の速度出力も可能)
  • 91.
    TIER IVPointPaintingoff-the-shelfoff-the-shelfwith cameracalibrationparamsVora, Sourabh, et al. "Pointpainting: Sequential fusion for 3d object detection." Proceedings of the IEEE/CVF Conference on Computer Vision andPattern Recognition. 2020.97利点 いろいろな手法を取り込みやすい- Cameraの2Dの検出器やLiDARのSemantic Segmentationなど 異なるセンサーをフュージョンする際にキャリブレーション結果はパラメータとして追い出せる
  • 92.
    TIER IVmAP CARAP Pedestrian AP Cyclist APCenterPoint 60.58 73.56 53.00 38.89CenterPoint withPointPaintingGT 71.13 74.32 59.95 61.90yolov4 (COCOdataset)68.11 74.62 57.27 55.99PointPaintingによるCamera画像の活用 ※各スライドでの評価結果とは評価データセットが異なるためあくまでもスライド内における相対指標となります
  • 93.
    TIER IVmAP CARAP Pedestrian AP Cyclist APCenterPoint 60.58 73.56 53.00 38.89CenterPoint withPointPaintingGT 71.13 74.32 59.95 61.90yolov4 (COCOdataset)68.11 74.62 57.27 55.99PointPaintingによるCamera画像の活用
  • 94.
    TIER IVCenterPointの改善の一部の例 BEVベースでは情報の損失が大きく、立体的な情報が失われる-BEVではトラックと壁の区別がつきにくい Single Frameでは精度が出ない点群をBEVの特徴量画像に変換CenterPointYOLO Range Image basedSemantic SegmentationPointPaintingによるCamera画像やLiDARのRangeImageの活用※今回はCamera画像を話しますMulti FrameによるDensification(副効果として物体の速度出力も可能)
  • 95.
    TIER IVCurrentVehicleCoordinatesGlobalCoordinatesPastVehicleCoordinatesMulti FrameによるDensificationwithouttransformation with transformationmovingobjectstaticobjectCenterPointの入力点群に現在フレームからの時間差を特徴量として追加
  • 96.
    TIER IVMulti FrameによるDensificationMultiFrameをinputすることにより精度向上と同時にoutputとしてDetectionの段階でオブジェクトの速度の学習が可能に※一部オブジェクトの残像は、開発時の可視化の不具合
  • 97.
    TIER IVMethod CarAP Pedestrian AP Cyclist AP Inference timeCenterPoint 82.94 35.07 32.66 49.7 msCenterPoint + Densification 84.73 46.30 59.90 64.4 msCenterPoint + PointPainting 83.71 49.53 62.89 63.3 msCenterPoint + Densification + PointPainting 85.29 52.79 66.66 85.0 msMulti FrameによるDensificationEnvironment:Core i7 10700K / GeForce GTX 1060 6G / CUDA 10.2 / cuDNN 7.6.5 / TensorRT 7.0.0※各スライドでの評価結果とは評価データセットが異なるためあくまでもスライド内における相対指標となります
  • 98.
  • 99.
    105ROSBAGreplaySimulatorPlanning SimulatorEnd2EndSimulatorReal TestSensing◯ ◯ ◯Localization ◯ ◯ ◯Perception ◯◯(一部)・Detection(疑似点群生成機能の利用)・Tracking・Perception◯ ◯Planning ◯ ◯ ◯Control ◯(一部)・ステアリング、加減速の遅延、振動を模擬◯ ◯OSS化準備中
  • 100.
  • 101.

[8]ページ先頭

©2009-2025 Movatter.jp