Automated Driving Toolbox
Projektowanie, symulacja i testowanie sterowników aktywnego bezpieczeństwa oraz systemów autonomicznej jazdy
Automated Driving Toolbox™ dostarcza algorytmy i narzędzia do projektowania i testowania sterowników typu ADAS oraz systemów autonomicznej jazdy. Pozwala na automatyzację procesu oznaczania obiektów na obrazie (ground-truth labeling), generację przykładowych sygnałów przychodzących z czujników pomiarowych dla zadanych scenariuszy testowych, wspiera rozwój algorytmów fuzji z wielu czujnków (multisensor fusion) oraz projektowanie i testowanie systemów wizyjnych.
Toolbox ten wspiera proces testowania w pętli otwartej poprzez automatyzację procesu oznaczania obiektów na danych wejściowych i testowanie własnych algorytmów pod kątem wykrywania tych obiektów. Na potrzeby testów Hardware-In-the-Loop i klasycznych symulacji algorytmów fuzji i logiki sterującej można generować scenariusze jazdy i symulować listy obiektów przychodzące z radarów lub układów wizyjnych.
Automated Driving Toolbox wspomaga proces rozwoju algorytmów fuzji z wielu czujników poprzez gotowe komponenty filtrów Kalmana, algorytmów przypisania, modele ruchu i algorytmy śledzenia wielu obiektów. Dostarczane algorytmy do projektowania systemów wizyjnych obejmują śledzenie linii na jezdni, wykrywanie pojazdów z wykorzystaniem algorytmów uczenia maszynowego i deep learning oraz transformaty współrzędnych typu obraz-pojazd.
Kluczowe cechy modułu:
- aplikacja wspierająca proces oznaczania obiektów na filmie i narzędzia wspierające testowanie własnych algorytmów względem oznaczonego filmu,
- algorytmy fuzji danych pochodzących z wielu źródeł w tym filtry Kalmana, śledzenie wielu obiektów, detekcja toru jazdy i modele ruchu,
- generacja scenariuszy jazdy, w tym definiowanie drogi, aktorów i pojazdu oraz wizualizacja całości,
- symulacja czujników typu kamera i radar z listą obiektów na wyjściu,
- algorytmy przetwarzania obrazów, w tym detekcja i klasyfikacja linii na jezdni, detekcja pojazdów i transformaty współrzędnych obraz-pojazd,
- wizualizacja pokrycia czujnikami (także widok typu bird’s-eye), detekcji toru i obiektów z nakładaniem na oryginalny widok z kamery,
- generacja kodu C z algorytmów fuzji i śledzenia (z MATLAB Coder™).