sreda, 6. maj 2026

Nevarnosti halucinacij modelov umetne inteligence

Raziskovalci Dongyang Fan, Sebastien Delsad, Nicolas Flammarion, Maksym Andriushchenko so v pravkar objavljeni raziskavi »HalluHard: A Hard Multi-Turn Hallucination Benchmark« pokazali, da LLM modeli umetne inteligence v veliki večini primerov (med 60 % in 75 %) na vseh zajetih strokovnih področjih »halucinirajo«. Torej v 60 % do 75 % primerov (v 3 izmed 4 primerov) damijan.org več »

Več iz medija

Mearsheimer: What went wrong?

 

On 4 May 2026, I was on Glenn Diesen’s popular podcast talking with Glenn about how the US and Europe ended up in so much trouble today. We spent little time... damijan.org več »

POKAŽI VIRE
+
Delo Dnevnik Večer Primorske Siol 24ur RTV Slo N1 Svet24 Žurnal Slovenske novice Reporter Finance Forbes Mladina Ekipa Necenzurirano Preiskovalno Info360 Požareport Nova24 SEZNAM VSEH VIROV
+
Pokaži kategorije
+
Domov Slovenija Svet Gospodarstvo Šport Scena Kronika Zanimivosti Tehnologija Kultura Zdravje Prosti čas Drugo