Djupt multimodalt lärande för fordonstillämpningar
Forskningsprojekt, 2023 – 2027

Syfte och mål
Syftet med projektet är att förbättra perceptionssystemet i autonoma fordon genom att utveckla avancerade data-drivna sensorfusionsmetoder. Vi kommer att fokusera på tre nyckelområden: (1) Utveckla nya fusionsarkitekturer och kraftfulla datarepresentationer för både dynamiska och statiska objekt. (2) Undersöka självövervakade inlärningstekniker för multimodal sensordata i en bilmiljö. (3) Förbättra perceptionssystemets förmåga att hantera sällsynta händelser, föremål och trafikanter på ett robust sätt.

Förväntade effekter och resultat
I detta projekt fokuserar vi på tekniker som kan förbättra noggrannheten och robustheten hos perceptionssystem för autonom körning och aktiv säkerhet. Därför förväntar vi oss att våra tekniker bidrar till ökad säkerhet för dessa fordon, vilket i sin tur kan påskynda allmänhetens införande av autonoma funktioner. Genom detta hoppas vi kunna bidra till en ökad säkerhet för alla trafikanter.

Deltagare

Selpi Selpi (kontakt)

Chalmers, Data- och informationsteknik, Data Science och AI

Lars Hammarstrand

Chalmers, Elektroteknik, Signalbehandling och medicinsk teknik

Lennart Svensson

Chalmers, Elektroteknik, Signalbehandling och medicinsk teknik

Samarbetspartners

Volvo Cars

Göteborg, Sweden

Zenseact AB

Göteborg, Sweden

Finansiering

VINNOVA

Projekt-id: 2023-00763
Finansierar Chalmers deltagande under 2023–2027

Mer information

Senast uppdaterat

2024-02-20