digitalhealth.cz

Události, rozhovory, reportáže, studie a technologické novinky

Menu
  • AI a data
  • Software
  • Cyber Security
  • Interoperabilita
  • Události
  • Case study
  • Rozhovory
  • O nás
Menu

Umělá inteligence otevírá Pandořinu skříňku: ChatGPT generuje falešné ale přesvědčivě vypadající vědecké články

Posted on 18. 7. 2023

Progresivní studenti díky umělé inteligenci dnes běžně dokážou vystřihnout propracovanou seminárku na jakékoliv téma doslova za pár hodin.

Využití schopností AI jazykových modelů ale zajímají také vědce a výzkumníky. A pro příklady není třeba chodit daleko. Čeští výzkumníci z Karlovy univerzity letos na konci května publikovali na toto téma v časopise Journal of Medical Internet Research vědecký článek.

Autoři se ale na schopnosti umělé inteligence podívali z jiné strany. Studie s názvem „Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened“, jejíž autory jsou MUDr. Martin Májovský a jeho kolegové, se zabývá využitím jazykových modelů umělé inteligence, jako je ChatGPT (Chat Generative Pre-trained Transformer), při generování podvodných vědeckých článků. Tyto materiály, které si na zadané téma umělá inteligence doslova „cucá z prstu“, totiž vypadají pozoruhodně autenticky. Výstupy výzkumné studie tak vyvolávají oprávněné obavy z možného narušení integrity současného vědeckého výzkumu a důvěryhodnosti publikovaných článků.

Výzkumníci z UK se při svém bádání zaměřili na schopnosti současných jazykových modelů umělé inteligence při vytváření vysoce kvalitních podvodných lékařských článků z oblasti neurochirurgie, psychiatrie a statistické analýzy. Tým použil populární chatbot s umělou inteligencí ChatGPT s jazykovým modelem GPT-3 od společnosti OpenAI. S jeho pomocí vygeneroval zcela smyšlený vědecký článek z oblasti neurochirurgie. Informace a instrukce pro sestavení článku byly upřesňovány v průběhu generování odpovědí ChatGPT. To výzkumníkům umožnilo postupně zlepšovat kvalitu výstupu.

Výsledky této ověřovací studie byly doslova zarážející. Jazykový model umělé inteligence totiž úspěšně vytvořil podvodný článek, který se z hlediska použití slov, struktury vět a celkové kompozice velmi podobal skutečnému vědeckému článku. Článek obsahoval standardní části, jako je abstrakt, úvod, metody, výsledky a diskuse, a také tabulky a další údaje. Překvapivě celý proces tvorby článku trval pouhou jednu hodinu, aniž by byl uživatel z řad lidí speciálně vyškolen.

Ale i když článek vytvořený umělou inteligencí vypadal propracovaně a bezchybně, při bližším zkoumání odborní čtenáři nacházeli sémantické nepřesnosti a chyby zejména v odkazech. Některé odkazy totiž byly nesprávné a jiné dokonce vůbec neexistovaly.

Závěry této studie proto zdůrazňují význam vypracování etických pokynů a postupů pro používání jazykových modelů AI při skutečném vědeckém psaní a výzkumu. S dalším rozvojem AI se pro vědeckou komunitu totiž stává klíčovými úkoly jednak ověřování přesnosti a pravosti obsahu generovaného těmito nástroji. A dále zavádění mechanismů pro odhalování a prevenci podvodů a nekalých praktik.

Autoři studie zdůrazňují, že je třeba najít lepší způsob, jak ověřovat přesnost a pravost obsahu generovaného umělou inteligencí. Jak toho ale dosáhnout, není zatím tak jasné. Už dnes se objevují názory, že by autor měl alespoň deklarovat, do jaké míry mu umělá inteligence pomáhala při psaní a analýze článku.

Na druhou stranu je potřeba se naučit žít s umělou inteligencí i ve světě vědy a výzkumu. Modely jako ChatGPT mají opravdu reálný potenciál zvýšit efektivitu a přesnost tvorby dokumentů, analýzy výsledků a jazykových úprav. Dokonce mohou zrychlit výzkum a zavádění jeho výsledků do praxe. Vždyť tvorba dokumentů nebo psaní vědeckých článků zaberou z celého výzkumu podstatnou část času. Opatrným a zodpovědným používáním těchto nástrojů tak mohou výzkumní pracovníci využít jejich sílu a zároveň minimalizovat riziko jejich zneužití.

Zdroj: JMIR Publications

Napsat komentář Zrušit odpověď na komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Příspěvky

  • Nový zákon o kybernetické bezpečnosti: Jaké změny přináší?
  • Jak dostat AI do českého zdravotnictví: Na cestě od vize k praxi podle Adama Gřunděla
  • KotniCheck od Zentivy: Jak se zrodil nápad, který spojuje AI, hypertenzi a podložky z hobby marketu
  • FaceAge: Když AI pozná váš skutečný věk z obyčejné selfie – nový nástroj, který pomáhá onkologům předpovědět přežití u pacientů s rakovinou
  • Lékaři mají zájem podpořit sdílení elektronické věty pacienta. Apelují na udržitelnost projektů a jejich plošný dopad.

VÍTEJTE
Vítejte na blog magazínu Digital Health, kde se zaměřujeme na digitální inovace v oblasti zdravotnictví. Sdílíme novinky, rozhovory, trendy a události týkající se telemedicíny, umělé inteligence ve zdravotnictví a dalších digitálních nástrojů.

O NÁS
Cílem našeho blogu je podělit se se čtenáři o informace z transformace zdravotní péče pomocí moderních technologií. Přidejte se k nám, abyste objevili, jak digitální revoluce mění budoucnost zdravotnictví a zlepšuje péči o naše zdraví.

KONTAKTY
Petr Moláček
petr.molacek(at)digitalhealth.cz

Martin Doležal
martin.dolezal(at)digitalhealth.cz

©2024 digitalhealth.cz