LLMs Can Check Their Own Results to Mitigate Hallucinations in Traffic Understanding Tasks
Paper i proceeding, 2025
multi-modal data
hallucination detection
perception systems
safety-critical systems
large language models
automotive
Författare
Malsha Ashani Mahawatta Dona
Göteborgs universitet
Chalmers, Data- och informationsteknik, Interaktionsdesign och Software Engineering
Beatriz Cabrero-Daniel
Chalmers, Data- och informationsteknik, Interaktionsdesign och Software Engineering
Göteborgs universitet
Yinan Yu
Chalmers, Data- och informationsteknik, Funktionell programmering
Christian Berger
Göteborgs universitet
Chalmers, Data- och informationsteknik, Interaktionsdesign och Software Engineering
Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics)
03029743 (ISSN) 16113349 (eISSN)
Vol. 15383 LNCS 114-1309783031808883 (ISBN)
London, United Kingdom,
SAICOM
Stiftelsen för Strategisk forskning (SSF) (FUS21-0004), 2022-06-01 -- 2027-05-31.
Ämneskategorier (SSIF 2025)
Språkbehandling och datorlingvistik
DOI
10.1007/978-3-031-80889-0_8