Áttörés a mellrák diagnosztikában?

Hírek - Radiológia Világa | 2025. július 17. 08:28 | Utolsó módosítás dátuma - 2026. április 10. 21:21 | Forrás: radiologia.hu

Magyarázható mesterséges intelligencia segíti a daganatok felismerését MR-vizsgálaton

Áttörés a mellrák diagnosztikában?

Egy új, magyarázható mesterséges intelligencia (Explainable AI, XAI) modell képes nemcsak kiemelkedő pontossággal felismerni az emlőtumorokat MR-felvételeken, hanem azt is megmutatja, milyen képi jellemzők alapján hozza meg döntését. Ez kulcsfontosságú lépés lehet a mesterséges intelligencia klinikai elfogadottsága felé a radiológia egyik legérzékenyebb területén.

A Current Problems in Diagnostic Radiology című szaklapban megjelent friss tanulmány szerint a gépi tanulási algoritmusok nem csupán a klasszikus diagnosztikus pontosságot képesek növelni, hanem átláthatóvá is teszik döntéseik logikáját – ez pedig egyaránt fontos a radiológusok, az onkológusok és a betegek számára.

Miért fontos a magyarázható mesterséges intelligencia?

Az AI-alkalmazások egyik leggyakoribb kritikája, hogy úgynevezett „fekete dobozként” működnek: nem lehet pontosan tudni, hogy az algoritmus milyen mintázatok vagy döntési utak alapján jut egy adott diagnózishoz. Ez különösen érzékeny téma az emlődiagnosztikában, ahol a téves negatív vagy téves pozitív leletek súlyos következményekkel járhatnak.

A magyarázható AI (XAI) célja, hogy vizuálisan és kvantitatív módon is bemutassa, hogy milyen struktúrák és képjellemzők játszanak szerepet a döntéshozatalban – ezáltal az orvos jobban megérti és kontrollálhatja a mesterséges intelligencia által adott eredményt.

Hogyan működött a modell?

A most bemutatott modell egy konvolúciós neurális hálózat (CNN), amelyet emlő MR sorozatokon tanítottak be tumorok felismerésére és azok lokalizálására. A tanulmányban 335 beteg adatait használták fel, akiknél biopsziával igazolták a malignitást, valamint kontrollcsoportokat is bevontak.

A rendszer nemcsak osztályozási feladatot látott el (daganatos/nem daganatos), hanem hőtérképek (saliency maps) segítségével világosan megjelenítette, hogy az adott képi régiók közül hol és milyen súllyal érzékelt rizikót.

Eredmények: pontosság és átláthatóság együtt

Az AI-modell teljesítménye meggyőző volt:

  • 87%-os érzékenységet és

  • 83%-os specificitást értek el az MR-felvételek értékelése során.

A radiológusok által validált hőtérképek azt mutatták, hogy az AI a tumor körüli peritumorális zónákat, keringési mintázatokat és egyes diffúziós jellemzőket emelte ki a legnagyobb jelentőségűnek.

Fontos eredmény, hogy a rendszer nem csupán a jól látható, nagy volumenű tumorokat ismerte fel, hanem azokat az atípusos, diffúz megjelenésű léziókat is, amelyeket a klasszikus MR-interpretáció során gyakrabban tévesztenek el.

Miért fontos mindez a radiológiai gyakorlatban?

Az AI-alapú diagnosztikai támogatás egyre inkább terjed az emlődiagnosztikában, különösen a nagy forgalmú szűrőcentrumokban. A magyarázható AI előnyei:

  • Növeli a radiológus bizalmát az algoritmusban, hiszen nem vakon kell elfogadnia az eredményt.

  • Csökkentheti a téves pozitív arányt, mivel a radiológus pontosabban átláthatja, ha az AI irreleváns területet emel ki.

  • Oktatási eszközként is használható, hiszen a hőtérképek révén a radiológusok jobban megérthetik a patológiai mintázatok jelentőségét.

Dr. Megan McFarlane, a tanulmány vezető szerzője így fogalmaz:

„A mesterséges intelligencia ereje akkor érvényesül igazán, ha átláthatóvá tesszük a döntéshozatalt. Ez különösen fontos egy olyan érzékeny szakterületen, mint az emlő-MR diagnosztika, ahol a pontosság mellett a bizalom is kulcsfontosságú.”

Következő lépések: hogyan válhat klinikai eszközzé?

A szerzők szerint a következő lépés a modell prospektív validálása nagyobb, több centrumra kiterjedő mintán, valamint a klinikai integráció előkészítése. A cél az, hogy a jövőben:

  • a diagnosztikai workflow részeként már a leletező munkaállomáson megjelenjenek az AI-jelölések,

  • a radiológus szabadon eldönthesse, hogy elfogadja, felülbírálja vagy figyelmen kívül hagyja az AI javaslatát,

  • és az AI nem átveszi a döntéshozatalt, hanem támogatja azt.

A teljes tanulmány ITT ÉRHETŐ EL.


Mi az a "magyarázható" mesterséges intelligencia?

A magyarázható mesterséges intelligencia (Explainable AI, XAI) olyan mesterséges intelligencia rendszereket jelöl, amelyek nemcsak döntést hoznak, hanem azt is megmutatják, hogy milyen okok vagy jellemzők alapján jutottak egy adott eredményre. Ezzel szemben a hagyományos „fekete doboz” AI-modellek esetében a felhasználók gyakran nem látják át, hogyan születik meg a döntés, ami bizalomhiányt eredményezhet.

A magyarázható AI célja:

  • Átláthatóság biztosítása: világos vizuális vagy szöveges visszajelzés arról, hogy a rendszer mely képi jellemzőkre vagy mintázatokra alapoz.

  • Klinikai kontroll megtartása: a radiológus eldöntheti, hogy egyetért-e a rendszer értelmezésével.

  • Bizalomépítés: az orvosok és páciensek könnyebben elfogadják az AI segítségét, ha érthető annak működése.

  • Oktatási érték: segíti a képalkotó diagnosztikában dolgozó szakemberek tanulását azáltal, hogy kiemeli a diagnosztikailag fontos területeket.

Az XAI tehát nem helyettesíti az orvosi döntéshozatalt, hanem annak átlátható és ellenőrizhető támogatását szolgálja.