iStock

ΟΤΑΝ Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΣΕ ΣΤΕΛΝΕΙ ΣΤΑ ΕΠΕΙΓΟΝΤΑ

Η τεχνητή νοημοσύνη αντικατέστησε τον Dr Google και πλέον απαντά στις ανησυχίες για την υγεία μας. Το πρόβλημα είναι ότι οι συμβουλές της μπορεί αντί να μας βοηθήσουν, τελικά να μας στείλουν ακόμα και στα επείγοντα.

Κάποτε κάναμε πλάκα για τον Dr Google και τις «διαγνώσεις» του, που όποιο σύμπτωμα και να αναζητούσες θα κατέληγε 9 στις 10 φορές πως πάσχεις από βαριά ασθένεια και σύντομα θα βρίσκεσαι εν τόπω χλοερώ. Δεν θυμάμαι πού, στο Instagram ή στο Youtube, είδα ένα βιντεάκι που συνέκρινε τον πρώην παντογνώστη της καρδιάς μας με τον διάδοχο, αν όχι σφετεριστή του, το ChatGPT. Εκεί που το μεν σε έστελνε στον άλλο κόσμο, το δε ίσως και να σε καθησυχάσει πως πρόκειται για κάτι απλό.

Για να λέμε τα πράγματα ως έχουν, η τεχνητή νοημοσύνη θα δώσει πάντα παραπάνω από ένα πιθανά σενάρια, επισημαίνοντας πότε θα πρέπει να απευθυνθείς σε γιατρό. Ειδικά αν το chatbot είναι ξεκούραστο και δεν μιλάει σαν να συνέρχεται από εγκεφαλικό, μπορεί και να φανεί ακόμα πιο πειστικό για το τι πρέπει ή δεν πρέπει να κάνεις, σε σημείο να ξεχνάς πως δεν μιλάς με ειδικό αλλά με «έξυπνη» τεχνολογία. Μια τεχνολογία που, όχι και τόσο σπάνια, κάνει λάθη, εφευρίσκει δεδομένα και δίνει παραπλανητικές ή επικίνδυνες οδηγίες. Αν τις ακολουθήσεις, μπορεί χωρίς υπερβολή να καταλήξεις στα επείγοντα.

Επικίνδυνες συμβουλές με σοβαρές συνέπειες

Στα ιατρικά αρχεία και την επιστημονική βιβλιογραφία συναντάς πλέον περιστατικά ανθρώπων που έπεσαν θύματα κακής χρήσης του AI, όπως τα παρακάτω.

– Περνώντας το κονδύλωμα για αιμορροΐδα

Ένα από τα πιο χαρακτηριστικά περιστατικά αφορά έναν 35χρονο Μαροκινό, ο οποίος ζήτησε από το ChatGPT συμβουλές για μια ανησυχητική δερματική αλλοίωση στην περιοχή του πρωκτού. Το chatbot του ανέφερε πως μάλλον επρόκειτο για αιμορροΐδα και του πρότεινε απολίνωση (elastic ligation). Πρόκειται για θεραπεία κατά της αιμορροϊδοπάθειας που γίνεται μόνο από γιατρό και περιλαμβάνει την περίδεση της αιμορροΐδας με σφιχτό ελαστικό δακτύλιο, ώστε να διακοπεί η αιμάτωσή της και να συρρικνωθεί.

Όταν η τεχνητή νοημοσύνη σε στέλνει στα επείγοντα
iStock

Η τεχνική φάνηκε απλή στον παθόντα, που αποφάσισε να δέσει το εξόγκωμα με κλωστή, με αποτέλεσμα να οδηγηθεί εσπευσμένα στο νοσοκομείο με οξύ πόνο. Εκεί, διαπιστώθηκε πως η αιμορροΐδα που προσπάθησε να θεραπεύσει ήταν ένα κονδύλωμα τριών εκατοστών.

– Αυτοδηλητηρίαση για λιγότερο αλάτι

Σε μια άλλη υπόθεση, ένας 60χρονος άνδρας από τις Ηνωμένες Πολιτείες που προσπαθούσε να περιορίσει το αλάτι ζήτησε από το ChatGPT εναλλακτικές. Το bot του πρότεινε βρωμιούχο νάτριο, μια ουσία που χρησιμοποιείται για την απολύμανση πισινών. Ε, αφού το πρότεινε, κάτι θα ξέρει.

Ο άνδρας αντικατέστησε το αλάτι με την τοξική ουσία και την κατανάλωνε επί τρεις μήνες, ώσπου κατέληξε στο νοσοκομείο με δηλητηρίαση από βρώμιο και συμπτώματα που περιλάμβαναν ψευδαισθήσεις, σύγχυση και σοβαρή αφυδάτωση. Οι γιατροί χρειάστηκαν τρεις εβδομάδες για να σταθεροποιήσουν την κατάστασή του.

ΠΟΛΛΕΣ ΜΕΓΑΛΕΣ ΠΛΑΤΦΟΡΜΕΣ AI ΕΧΟΥΝ ΣΤΑΜΑΤΗΣΕΙ ΝΑ ΣΥΜΠΕΡΙΛΑΜΒΑΝΟΥΝ ΙΑΤΡΙΚΑ DISCLAIMERS ΣΤΙΣ ΑΠΑΝΤΗΣΕΙΣ ΤΟΥΣ, ΔΙΝΟΝΤΑΣ ΤΗΝ ΕΝΤΥΠΩΣΗ ΤΗΣ ΕΓΚΥΡΗΣ ΕΝΗΜΕΡΩΣΗΣ

– Στα επείγοντα με μίνι εγκεφαλικό

Η καθησυχαστική συμβουλή του ChatGPT παραλίγο να κοστίσει τη ζωή σε έναν 63χρονο Ελβετό. Ο άνδρας εμφάνισε διπλωπία (διπλή όραση) μετά από χειρουργείο στην καρδιά και, όταν το σύμπτωμα επανήλθε, αποφάσισε αντί για τον θεράποντα να ρωτήσει την τεχνητή νοημοσύνη, που τον διαβεβαίωσε ότι «στις περισσότερες περιπτώσεις, οι οπτικές διαταραχές είναι προσωρινές».

Ο ασθενής ακολούθησε τη «συμβουλή» και δεν ζήτησε ιατρική βοήθεια, με αποτέλεσμα το επόμενο 24ωρο να βρίσκεται στα επείγοντα με παροδικό ισχαιμικό επεισόδιο ή «μίνι εγκεφαλικό», επιπλοκή που μπορεί να ακολουθήσει μια καρδιοχειρουργικής επέμβασης. Όπως ανέφεραν οι ερευνητές που μελέτησαν το περιστατικό, «ο ασθενής καθυστέρησε να αναζητήσει ιατρική βοήθεια λόγω ελλιπούς και εσφαλμένης καθοδήγησης από το ChatGPT».

Γιατί μας πείθει ότι γνωρίζει

Όπως εξηγεί ο Δρ Darren Lebl, επικεφαλής ερευνών στη χειρουργική σπονδυλικής στήλης στο Hospital for Special Surgery της Νέας Υόρκης, «πολλοί ασθενείς έρχονται πλέον στο ιατρείο με “διαγνώσεις” που τους έδωσε ένα chatbot». Το πρόβλημα, σημειώνει, είναι ότι οι απαντήσεις «δεν βασίζονται πάντα σε πραγματικές επιστημονικές πηγές, αλλά σε πιθανές διατυπώσεις που μοιάζουν σωστές».

Τα chatbots έχουν σχεδιαστεί να μιμούνται την ανθρώπινη γλώσσα, όχι να παρέχουν τεκμηριωμένες ιατρικές συμβουλές. Ο τρόπος λειτουργίας τους –η πρόβλεψη της πιο πιθανής επόμενης λέξης– σημαίνει ότι μπορούν να παράγουν αληθοφανή αλλά ανακριβή ή επικίνδυνα αποτελέσματα. Η ψευδαίσθηση αξιοπιστίας ενισχύεται από τον τόνο βεβαιότητας με τον οποίο διατυπώνονται οι απαντήσεις.

Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΔΕΝ ΔΙΑΘΕΤΕΙ ΤΗΝ ΙΚΑΝΟΤΗΤΑ ΝΑ ΑΞΙΟΛΟΓΕΙ ΦΥΣΙΚΑ ΣΗΜΑΔΙΑ ΚΡΙΣΙΜΑ ΓΙΑ ΤΗΝ ΙΑΤΡΙΚΗ ΔΙΑΓΝΩΣΗ, ΟΠΩΣ Ο ΤΟΝΟΣ ΤΗΣ ΦΩΝΗΣ Ή Η ΕΝΤΑΣΗ ΤΟΥ ΠΟΝΟΥ.

Έρευνες δείχνουν ότι πολλές μεγάλες πλατφόρμες AI έχουν σταματήσει να συμπεριλαμβάνουν ιατρικά disclaimers στις απαντήσεις τους, δίνοντας την εντύπωση της έγκυρης ενημέρωσης. Ένα ακόμα σημαντικό πρόβλημα, που βρίσκεται στο άλλο άκρο, είναι η αδυναμία τους να αναγνωρίσουν σημάδια αυτοκαταστροφής ή ψυχολογικών δυσκολιών, με αποτέλεσμα καταγεγραμμένα περιστατικά χρηστών που αποπειράθηκαν ή αυτοκτόνησαν κατόπιν συζητήσεων με chatbots, όπως ο 16χρονος Adam Raine τον Απρίλιο του 2025.

Πώς να κάνεις σωστή χρήση του AI

Η τεχνητή νοημοσύνη έχει αποδείξει ότι μπορεί να αποτελέσει πολύτιμο εργαλείο για την υγεία, όχι μόνο επιταχύνοντας τις εξελίξεις στην ιατρική όσο και βοηθώντας τους ασθενείς να κατανοούν ιατρικούς όρους ή να προετοιμάζουν ερωτήσεις για τον γιατρό τους. Ωστόσο, δεν διαθέτει ενσυναίσθηση ούτε την ικανότητα να αξιολογεί φυσικά σημάδια, όπως ο τόνος της φωνής ή η ένταση του πόνου, στοιχεία κρίσιμα για την ιατρική διάγνωση. Τα chatbots δεν είναι υποκατάστατα της ιατρικής εξέτασης, καταλήγουν οι ειδικοί, παρά υποστηρικτικά εργαλεία.

SLOW MONDAY NEWSLETTER

Θέλεις να αλλάξεις τη ζωή σου; Μπες στη λογική του NOW. SLOW. FLOW.
Κάθε Δευτέρα θα βρίσκεις στο inbox σου ό,τι αξίζει να ανακαλύψεις.