Doctor ChatGPT
- Dott. Giuseppe Fatigati
- 6 giu
- Tempo di lettura: 1 min
Gli obiettivi di uno studio pubblicato sulla rivista "Ophthalmology Science" nel febbraio 25 erano la valutazione dell'accuratezza delle risposte generate da ChatGPT ed anche verificare la capacità degli oculisti di distinguere tra le risposte date dai medici e quelle generate da ChatGPT.
I modelli linguistici di grandi dimensioni hanno, infatti, dimostrato un potenziale significativo nel campo delle risposte alle domande in oftalmologia.
Per partecipare a questo studio sono stati reclutati sedici oculisti provenienti da un unico centro accademico.
Nel complesso, ChatGPT ha identificato correttamente la diagnosi primaria in 15 casi su 17 (88,2%). Gli oculisti hanno identificato correttamente l'autore nel 77,9% ± 26,6% dei 13 casi inclusi. Soggettivamente, gli oculisti hanno riscontrato che le discussioni scritte da ChatGPT tendevano ad avere risposte più generiche, informazioni irrilevanti e modelli sintattici distinti.
In conclusione i modelli linguistici di grandi dimensioni hanno il potenziale per sintetizzare dati clinici e generare discussioni in ambito oftalmico.
Sebbene questi risultati siano interessanti per l'utilizzo nei servizi sanitari dell'intelligenza artificiale, è necessaria una valutazione più rigorosa e precisa di questi modelli prima che la clinica medica se ne appropri in maniera più approfondita.





Commenti