Κατά τη διάρκεια της πανδημίας Covid-19, ο τετράχρονος γιος της Κόρτνεϊ, Άλεξ, άρχισε να εμφανίζει ανησυχητικά συμπτώματα. Πονούσε πολύ, είχε σταματήσει να ψηλώνει και παρουσίαζε κάποιες ανισορροπίες μεταξύ της αριστερής και της δεξιάς πλευράς του.
Η μητέρα μίλησε για την ιστορία τους στο Today.com. Μετά από 17 επισκέψεις σε γιατρούς για τρία χρόνια, η Κόρτνεϊ «απευθύνθηκε» στο ChatGPT για να βρει τι μπορεί να συμβαίνει στο γιο της. Αφού παρουσίασε στο σύστημα τεχνητής νοημοσύνης τα συμπτώματα, το ChatGPT απεφάνθη πως πρόκειται για μια ανωμαλία του νωτιαίου μυελού. Και τελικά είχε δίκιο. Το ChatGPT πέτυχε εκεί που οι γιατροί απέτυχαν…
«Πήρα γραμμή προς γραμμή ό,τι ανέφεραν οι ιατρικές εξετάσεις (μαγνητική τομογραφία κ.α.) και τα παρουσίασα στο ChatGPT», δήλωσε η Κόρτνεϊ. Το ChatGPT διέγνωσε «καθήλωση νωτιαίου μυελού», ένα νευρολογικό σύνδρομο, όπου προκαλείται από το τέντωμα στον ουραίο νωτιαίο μυελό λόγω της παρουσίας ενός ανελαστικού ιστού, που περιορίζει την κίνησή του.
Μετά τη διάγνωση του ChatGPT, η Κόρτνεϊ έγινε μέλος μιας ομάδας στο Facebook για οικογένειες παιδιών με το εν λόγω σύνδρομο. Εκεί διαπίστωσε πως οι ιστορίες των παιδιών που παρουσιάζονταν ήταν ακριβώς ίδιες με αυτή του Άλεξ.
Η Κόρτνεϊ ανέφερε το σύνδρομο «καθήλωσης νωτιαίου μυελού» σε ένα ραντεβού με ένα νέο νευροχειρουργό τον οποίο επισκέφτηκε. Αυτός το εξέτασε ως ενδεχόμενο και τελικά επιβεβαίωσε ότι ChatGPT είχε δίκιο. Ο γιατρός κατάφερε να εντοπίσει το πρόβλημα στη σπονδυλική στήλη του Άλεξ μέσω της μαγνητικής τομογραφίας. Ο τετράχρονος οδηγήθηκε στο χειρουργείο και πλέον αναρώνει.
Αν και η παρέμβαση του ChatGPT στην περίπτωση του Άλεξ αποδείχθηκε καθοριστική, οι γιατροί προειδοποιούν πως σε πολλές περιπτώσεις το πρόγραμμα τεχνητής νοημοσύνης μπορεί να κάνει λάθη. Ο Τζέσι Έρενφέλντ, πρόεδρος της κορυφαίας οργάνωσης ιατρών των ΗΠΑ, της Αμερικανικής Ιατρικής Ένωσης, μιλώντας στο Today.com, υπογράμμισε πως «το ChatGPT του OpenAI όπως και άλλα προϊόντα παραγωγής τεχνητής νοημοσύνης έχουν επί του παρόντος γνωστά προβλήματα και δεν είναι απαλλαγμένα από σφάλματα».
Ένα από τα πιο γνωστά προβλήματα του ChatGPT είναι οι αποκαλούμενες «παραισθήσεις» ή «ψευδαισθήσεις». Το πρόγραμμα τεχνητής νοημοσύνης συνθέτει στοιχεία για να δώσει μια απάντηση και στη συνέχεια την αναπαράγει και τη χρησιμοποιεί σε οποιαδήποτε μελλοντική ερώτηση που μπορεί να σχετίζεται. Καθώς δεν μπορεί να αξιολογήσει την ορθότητά της, το ChatGPT επαναλαμβάνει μόνιμα το λάθος θεωρώντας πλέον πως η απάντηση που δίνει είναι η σωστή, αν και μπορεί να έχει δημιουργήσει ακόμη και πράγματα που δεν υπάρχουν.
Στον αντίποδα, δεν είναι λίγοι οι γιατροί που δηλώνουν εντυπωσιασμένοι από τις δυνατότητες διάγνωσης ασθενειών του ChatGPT. Στο βιβλίο του «Τhe AI Revolution in Medicine, ο Ισαάκ Κοχάνι, γιατρός και επιστήμονας υπολογιστών στο Χάρβαρντ, δοκίμασε την τελευταία έκδοση του ChatGPT, το GPT-4.
Όπως ισχυρίζεται αυτή μπορεί να είναι πολύ καλύτερη από πολλούς γιατρούς. Σύμφωνα με το Insider, το ChatGPT περνάει τις εξετάσεις που δίνουν οι γιατροί στις ΗΠΑ για την άδεια ασκήσεως επαγγέλματος με βαθμολογία πάνω από 90%.