Téved és hazudozik a kórházakban is egyre többet használt MI-eszköz
Az eszközt már 7 millió orvosi vizit lejegyzéséhez használták, így a pontatlanságok és a légből kapott hülyeségek bekerültek a hivatalos nyilvántartásba.
Az Associated Press riportja alapján több tucat szakértő is megerősítette, hogy az OpenAI beszédfelismerő és az elhangzottakat írott tartalommá alakító Whisper modellje nemcsak pontatlanul működik, de gyakran hallucinál, vagyis az eredeti forrástól teljesen független szövegek jelennek meg a kimeneteiben. Annak ellenére, hogy maga az OpenAI sem tartja alkalmasnak a Whispert a "nagy kockázatú területeken" való alkalmazásra, és erre figyelmezteti is a felhasználóit, ma már 40 egészségügyi rendszer és több mint 30 ezer egészségügyi dolgozó használ egy erre épített eszközt - írta a bitport.hu.
A hírügynökségnek nyilatkozó mérnökök egyike például azt állítja, hogy az általa vizsgált több mint 100 órányi anyag felében fedezett fel hallucinációkat, miközben egy másik szakember 26 ezer átiratot fésült át, és azok szinte mindegyikében talált hibákat. Érdemes megjegyezni, hogy a Whisper még jól rögzített, rövid hangminták esetében is gyengén teljesített, egy másik kutatásban pedig feltárták, hogy milyen megdöbbentő tévedésekről van szó.
A kirívó példák között említik, amikor az MI előzmény vagy utasítás nélkül faji meghatározásokat gyárt, nem létező gyógyszerekről beszél, vagy olyan erőszakos és szexuális cselekményeket ír le, amelyek egyáltalán nem szerepeltek az eredeti beszélgetésekben. Ehhez képest lényegtelennek tűnik, amikor olyan kifejezésekkel gazdagítja az átiratokat, mint a "lájkold és iratkozz fel". A kutatók összességében a hibák csaknem 40 százalékát minőstették károsnak vagy aggasztónak, mert ezek nyomán könnyen félre lehet értelmezni, hogy valójában mi is hangzott el a megbeszélések során. Továbbiak a teljes cikkben