Djupt multimodalt lärande för fordonstillämpningar
Forskningsprojekt, 2023
– 2027
Syfte och mål
Syftet med projektet är att förbättra perceptionssystemet i autonoma fordon genom att utveckla avancerade data-drivna sensorfusionsmetoder. Vi kommer att fokusera på tre nyckelområden: (1) Utveckla nya fusionsarkitekturer och kraftfulla datarepresentationer för både dynamiska och statiska objekt. (2) Undersöka självövervakade inlärningstekniker för multimodal sensordata i en bilmiljö. (3) Förbättra perceptionssystemets förmåga att hantera sällsynta händelser, föremål och trafikanter på ett robust sätt.
Förväntade effekter och resultat
I detta projekt fokuserar vi på tekniker som kan förbättra noggrannheten och robustheten hos perceptionssystem för autonom körning och aktiv säkerhet. Därför förväntar vi oss att våra tekniker bidrar till ökad säkerhet för dessa fordon, vilket i sin tur kan påskynda allmänhetens införande av autonoma funktioner. Genom detta hoppas vi kunna bidra till en ökad säkerhet för alla trafikanter.
Deltagare
Selpi Selpi (kontakt)
Chalmers, Data- och informationsteknik, Data Science och AI
Lars Hammarstrand
Chalmers, Elektroteknik, Signalbehandling och medicinsk teknik
Lennart Svensson
Chalmers, Elektroteknik, Signalbehandling och medicinsk teknik
Samarbetspartners
Volvo Cars
Göteborg, Sweden
Zenseact AB
Göteborg, Sweden
Finansiering
VINNOVA
Projekt-id: 2023-00763
Finansierar Chalmers deltagande under 2023–2027