Umělá inteligence v medicíně: na obzoru je revoluce
V rámci celoživotního vzdělávání lékařů jsme na půdě ČLK připravili první kurz o postavení umělé inteligence (AI) v medicíně. Kurzu, který se konal 24. dubna v Domě lékařů, se zúčastnilo téměř pět stovek lékařek a lékařů (107 prezenčně a 381 online). Několik zajímavostí z tříhodinového programu uvádíme v tomto textu.
Rychlejší než lékař, ale ne vždy přesnější
Představte si nástroj, který napíše propouštěcí zprávu desetkrát rychleji než vy – a pacient ani kolegové nepoznají rozdíl. Přesně to ukázala nedávná pilotní studie ze Švédska, kde ChatGPT-4 generoval ortopedické propouštěcí zprávy výrazně rychleji než lékaři, bez podstatných kvalitativních nedostatků.
Nejde o ojedinělý případ. Stanfordská univerzita zjistila, že zkušení posuzovatelé nedokázali rozeznat, zda anamnézu sepsal seniorní lékař, nebo AI. Kvalita i struktura byly srovnatelné, tvrdí studie publikovaná v JAMA Internal Medicine. Velký jazykový model (LLM) dokáže produkovat lékařskou dokumentaci na úrovni absolventa medicíny.
V praxi to znamená, že na řadě míst ve světě se nyní začíná rozvíjet psaní příjmové i propouštěcí dokumentace pomocí umělé inteligence. Zda to bude znamenat pokrok v tom smyslu, že budou mít lékaři více času na pacienta, budou empatičtější a budou se mu během vyšetření více věnovat, zatím zcela jisté není, ale pravděpodobné to je.
Empatičtější než zaneprázdněný lékař?
S tím souvisí i poměrně překvapivé zjištění studie publikované v JAMA, která srovnávala reálné textové odpovědi lékařů pacientům s odpověďmi vygenerovanými ChatGPT. Nezávislí hodnotitelé upřednostnili odpovědi od ChatGPT v 79 procentech případů a označili je nejen za podrobnější a přesnější, ale i empatičtější než odpovědi lékařů. V relativně blízké budoucnosti tudíž nemůžeme vyloučit, že umělá inteligence částečně či úplně převezme i komunikaci s pacienty.
ChatGPT totiž dokázal odpovědět citlivěji a obšírněji tam, kde lékař, pravděpodobně z časových důvodů, odpovídal velmi stručně. Stanford Health Care již pilotně nasadil GPT-4 do ambulancí,, kde zdravotníci využili AI návrh odpovědi u 20 procent příchozích zpráv od pacientů. I když to nezkrátilo čas strávený nad odpovídáním, snížilo to pocit zátěže a vyhoření.
Medicínský student roku 2025
Fascinující je i schopnost jazykových modelů obstát v testech medicínských znalostí. ChatGPT dosáhl nebo překročil hranici 60procentní úspěšnosti, nutnou ke složení americké lékařské licenční zkoušky USMLE. To však umělá inteligence dokázala již před dvěma roky. V loňském roce již na komplexní otázky z kardiovaskulární medicíny odpovídala na úrovni atestujících lékařů.
Tyto výsledky nutí k zamyšlení nad budoucností medicínského vzdělávání. Má smysl nutit studenty memorovat detaily, které AI zvládne vyhledat za sekundy? Nebo by se výuka měla zaměřit na to, co AI neumí – kritické myšlení, komunikaci s pacienty a etické rozhodování?
Když AI zachrání život – a kdy může uškodit
Popsány byly jednotlivé případy, kdy pacienti s pomocí ChatGPT odhalili diagnózu, která unikala týmům specialistů. Například čtyřletý chlapec v USA, kterého vyšetřovalo 17 lékařů bez úspěchu, nakonec získal správnou diagnózu vzácného syndromu fixované míchy díky tomu, že jeho matka zadala symptomy do ChatGPT.
Takové příběhy jsou však spíše výjimečné a odborníci varují před spoléháním na AI pro vlastní diagnostiku. Hlavní riziko představují tzv. halucinace – model občas s úplnou sebejistotou sdělí informaci, která je věcně nesprávná nebo neexistující. Může vymyslet neexistující lék, uvést chybnou dávku nebo navrhnout nesmyslnou diagnózu. Další nebezpečí ze strany AI může spočívat v tom, že se chová ke svému uživateli „empaticky“ a může jej v jeho nesprávných závěrech utvrzovat.
Co Světová zdravotnická organizace?
WHO v květnu 2023 vydala prohlášení, ve kterém vyzývá k opatrnosti při používání velkých jazykových modelů v medicíně. Zdůrazňuje potřebu ochrany bezpečí, soukromí a autonomie pacientů a varuje před unáhleným zaváděním bez důkladného testování.
Mezi hlavní výzvy patří ochrana citlivých zdravotnických dat, riziko chybných doporučení, možná ztráta odbornosti lékařů, etické dilema automatizovaných doporučení, potenciální bias vedoucí k nespravedlivému přístupu k různým skupinám pacientů a hrozba šíření dezinformací.
Jak začít s AI ve vlastní praxi?
Pro lékaře, kteří chtějí začít experimentovat s ChatGPT, zde jsou tři bezpečné způsoby, jak začít:
- Tvorba dokumentace: Nechte si vygenerovat šablonu pro běžné zprávy, které pravidelně píšete. Ušetříte čas a můžete se soustředit na doplnění specifických detailů.
- Příprava edukačních materiálů: Požádejte AI o vytvoření srozumitelného vysvětlení nemoci nebo léčebného postupu pro pacienty. Získáte základ, který můžete upravit podle potřeby.
- Kontinuální vzdělávání: Pokládejte ChatGPT doplňující otázky k tématům, ve kterých si potřebujete osvěžit znalosti. Pamatujte však, že vždy je nutné ověřovat správnost.
Zlatá pravidla pro používání AI v medicíně
- Nikdy nevkládejte osobní údaje pacientů do veřejných verzí AI. Použité informace mohou být ukládány na servery třetích stran.
- Vždy ověřujte výstupy AI před jejich použitím. Model může „halucinovat“ a vytvářet přesvědčivě znějící, ale nesprávné informace.
- Udržujte si kritický odstup a používejte AI jako pomocníka, nikoliv náhradu vlastního úsudku. Konečná odpovědnost zůstává vždy na lékaři.
- Buďte transparentní vůči pacientům, pokud využíváte AI k přípravě materiálů nebo komunikaci.
- Sledujte vývoj regulace – právní rámec pro použití AI ve zdravotnictví se teprve formuje a bude se rychle vyvíjet.
Budoucnost medicíny s AI
Generativní umělá inteligence zatím není náhradou za lékaře, ale potenciálně mocným nástrojem, který může zefektivnit administrativní úkony, pomoci s vyhledáváním informací a zlepšit komunikaci s pacienty. Při správném použití může ChatGPT fungovat jako asistent, který lékaři ušetří čas na rutinních úkolech a umožní mu soustředit se na to nejdůležitější – na pacienta a jeho potřeby.
