Την… υγειά τους, σωματική ή ψυχική, ψάχνουν να βρουν μέσω ΑΙ και ψηφιακών γιατρών πολλοί θιασώτες της τεχνητής νοημοσύνης, οι οποίοι καταφεύγουν εκεί αναζητώντας λύσεις και οδηγίες, καθώς δεν χρειάζεται να κλείσουν ραντεβού, ούτε να πληρώσουν την επίσκεψη και, κυρίως, επειδή νιώθουν ότι ακούγονται χωρίς να τους ασκείται κριτική. Μια νέα μελέτη όμως αποκαλύπτει ότι τα δημοφιλή chatbots δίνουν συχνά ανακριβείς ή ακόμα και επικίνδυνες ιατρικές συμβουλές, με τους ειδικούς να ζητούν πλέον αυστηρότερη ενημέρωση του κοινού. Καθηγητές Ψυχιατρικής παρατηρούν ότι όλο και περισσότεροι άνθρωποι εμπιστεύονται πρώτα μία μηχανή για να αναφέρουν τα συμπτώματά τους ή ακόμα να στείλουν φωτογραφία τους με κάτι που τους ανησυχεί στο σώμα τους (ίσως κάποιο εξάνθημα), τονίζοντας ότι τελικά το μεγάλο πρόβλημα δεν είναι ότι η τεχνολογία δίνει απαντήσεις, αλλά το γεγονός ότι ο άνθρωπος σταματά σταδιακά να συμβουλεύεται τον πραγματικό ειδικό, υποκαθιστώντας τον ψηφιακά.
Φοβισμένοι και πολλές φορές απελπισμένοι χρήστες, στέλνουν φωτογραφίες, αιματολογικές εξετάσεις, ακτινογραφίες ή αποτελέσματα μαγνητικών ή αξονικών τομογραφιών! Δεν είναι λίγες οι φορές που φτάνουν στο σημείο να στείλουν ακόμα και ηχητικό με… τον βήχα τους (!), για να γίνει ανάλυση μέσω μοντέλων AI, όπως το HeAR της Google. Ορισμένοι, μάλιστα, το έχουν… τερματίσει, στέλνοντας ψηφιακά αρχεία δεδομένων που περιέχουν το DNA τους, με σκοπό η ΑΙ να εντοπίσει προδιαθέσεις σε ασθένειες ή να προτείνει εξατομικευμένες θεραπείες.
Οι απλές ερωτήσεις είναι και οι πλέον συχνές: «Έχω πονοκέφαλο και ζαλάδα, τι μπορεί να είναι;», «Πότε να δω γιατρό;», «Χρειάζεται να πάω στα Επείγοντα ή μπορώ να περιμένω;», «Νιώθω άγχος συνέχεια, τι μπορώ να κάνω;», «Πώς καταλαβαίνω αν έχω κατάθλιψη;» ή «Πώς να διαχειριστώ κρίση πανικού;». Σειρά έχουν οι απορίες αυτοφροντίδας όπως «πώς να κοιμάμαι καλύτερα» και μετά οι ερωτήσεις για φάρμακα και τις παρενέργειές τους, με συχνότερη «Μπορώ να πάρω αυτό το φάρμακο μαζί με άλλο;».
Ανησυχία
Πιο επικίνδυνη ερώτηση είναι η προσπάθεια για διάγνωση με τη βοήθεια του ΑΙ, όπως: «Με βάση αυτά τα συμπτώματα, τι έχω;». Βέβαια, σε αυτό υπάρχει η υποσημείωση από το chatbot που τονίζει ότι «εδώ χρειάζεται προσοχή – τα chatbots δεν αντικαθιστούν τον γιατρό».
Ανησυχητικά ευρήματα αποκαλύπτει νέα μελέτη που δημοσιεύθηκε στο «British Medical Journal», η οποία δείχνει ότι δημοφιλή chatbots, όπως το ChatGPT, το Gemini και το Grok, δίνουν προβληματικές ιατρικές απαντήσεις περίπου στο 50% των περιπτώσεων, με κινδύνους για τους χρήστες. Αρχικά εξετάστηκε η πλατφόρμα ChatGPT Health, όπου διαπιστώθηκε ότι υποεκτιμούσε τη σοβαρότητα περιστατικών (under-triage) σε περισσότερες από τις μισές περιπτώσεις.
Κατόπιν, οι ερευνητές επέκτειναν την ανάλυση σε πέντε δημοφιλή εργαλεία τεχνητής νοημοσύνης: το ChatGPT, το Gemini, το DeepSeek, το Meta AI και το Grok. Οι επιστήμονες υπέβαλαν συνολικά 250 ερωτήματα, τόσο ανοιχτού όσο και κλειστού τύπου, καλύπτοντας θέματα όπως ο καρκίνος, τα εμβόλια, τα βλαστοκύτταρα, η διατροφή και η αθλητική απόδοση – πεδία που θεωρούνται ευάλωτα στη διασπορά παραπληροφόρησης. Πενήντα τοις εκατό των απαντήσεων κρίθηκαν προβληματικές, περίπου ένα τρίτο ήταν «μέτρια προβληματικές» και 20% χαρακτηρίστηκαν «ιδιαίτερα προβληματικές». Όταν το ChatGPT ρωτήθηκε για την αξιοπιστία της τεχνητής νοημοσύνης σε ιατρικά θέματα, κατέληξε ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί ως εργαλείο ενημέρωσης και κατανόησης, αλλά όχι ως βάση για λήψη ιατρικών αποφάσεων.
Στη Σχολή Ιατρικής του Πανεπιστημίου Duke των ΗΠΑ, η Μόνικα Αγκρουάλ, PhD, επίκουρη καθηγήτρια Βιοστατιστικής και Βιοπληροφορικής αναλύει χιλιάδες πραγματικές συνομιλίες μεταξύ ασθενών και AI chatbots. «Σε μία περίπτωση, ένας χρήστης ρώτησε πώς να πραγματοποιήσει μια ιατρική πράξη στο σπίτι. Το chatbot σωστά προειδοποίησε ότι η επέμβαση πρέπει να γίνεται μόνο από επαγγελματίες, αλλά στη συνέχεια έδωσε αναλυτικές οδηγίες βήμα προς βήμα. Ένας γιατρός θα είχε σταματήσει αμέσως τη συζήτηση. Οι ασθενείς συχνά επιδεινώνουν το πρόβλημα κάνοντας καθοδηγητικές ερωτήσεις, όπως: ‘’Νομίζω ότι έχω αυτή τη συγκεκριμένη διάγνωση. Ποια είναι τα επόμενα βήματα που πρέπει να ακολουθήσω;’’ ή ‘’Ποια είναι η δοσολογία αυτού του φαρμάκου που πρέπει να πάρω για την κατάστασή μου;’’», είπε ενώ παραδέχτηκε ότι και η ίδια έχει χρησιμοποιήσει την τεχνητή νοημοσύνη. Όπως εξήγησε, κατά τη διάρκεια της εγκυμοσύνης της, στράφηκε στην τεχνητή νοημοσύνη για γρήγορες απαντήσεις πριν από το πρώτο της ραντεβού. «Γράφω συχνά για το πού η τεχνητή νοημοσύνη στην ιατρική πληροφορία κάνει λάθη, αλλά την έχω χρησιμοποιήσει κι εγώ. Και νομίζω ότι αυτό ισχύει πλέον για πολύ κόσμο», πρόσθεσε.
Ψευδαίσθηση
Το καμπανάκι του κινδύνου χτυπάει ο διακεκριμένος καθηγητής Ψυχιατρικής και Ψυχοθεραπείας στο Πανεπιστήμιο Bicocca του Μιλάνου, Αντώνης Ντακανάλης, ο οποίος εξηγεί αναλυτικά στην «Απογευματινή» τον κίνδυνο που ενέχει ο «ψηφιακός γιατρός», χαρακτηρίζοντας αυτή την εμμονή ορισμένων χρηστών του διαδικτύου επικίνδυνη. «Η τεχνητή νοημοσύνη έγινε ο “πρώτος αποδέκτης” της αγωνίας μας, ο γιατρός που είναι πάντα διαθέσιμος, που ‘’τα ξέρει όλα’’. Ή τουλάχιστον έτσι νομίζουμε. Δεν είναι μόνο η ευκολία. Είναι ότι εκεί δεν ντρέπεσαι. Δεν σε κοιτάει κανείς όταν λες “φοβάμαι”, “ζηλεύω”, “δεν αντέχω άλλο”. Δεν εκτίθεσαι όταν λες: “Δεν είμαι καλά”. Ξαφνικά, βρίσκεσαι σε έναν χώρο όπου μπορείς ανώνυμα να πεις τα πάντα χωρίς κριτική, χωρίς αναμονή, χωρίς κόστος και λες μόνο ό,τι θέλεις, ενώ η ΑΙ συχνά καλύπτει και μια βαθύτερη δυσπιστία απέναντι στο δημόσιο σύστημα υγείας ή στους ειδικούς, πολλοί από τους οποίους έχουν ξεχάσει την ενσυναίσθηση, το ανθρώπινο κομμάτι και εστιάζουν μόνο στο σύμπτωμα».
Όπως τονίζει ο κ. Ντακανάλης, η τεχνητή νοημοσύνη προσφέρει κάτι που μοιάζει με αποδοχή χωρίς όρους: «Και αυτό είναι βαθιά ελκυστικό γιατί πολλοί άνθρωποι έχουν μάθει να φοβούνται την απόρριψη, την κριτική, ακόμα και την ίδια την αλήθεια τους. Αλλά ας το πούμε όπως είναι: δεν αγοράζουμε φροντίδα. Αγοράζουμε την ψευδαίσθηση της φροντίδας. Και εδώ γεννιέται η μεγάλη αυταπάτη: “Αφού με καταλαβαίνει, τότε με φροντίζει:. Όμως, δεν είναι έτσι. Σε “ακούει”, αλλά δεν σε γνωρίζει. Σου “απαντά”, αλλά δεν σε βλέπει. Και ίσως το πιο επικίνδυνο είναι ότι σου δίνει την ψευδαίσθηση ότι έχεις τον έλεγχο. Ο άνθρωπος δεν πάει εκεί που είναι σωστό, πάει εκεί που νιώθει ασφαλής. Ακόμα κι αν αυτή η ασφάλεια είναι ψεύτικη».
Τον ίδιο δεν τον ανησυχεί ότι οι άνθρωποι μιλούν σε μηχανές, αλλά ότι σταματούν να ρωτούν τους ειδικούς και να συναντιούνται μεταξύ τους: «Πρόσφατα, νεαρή γυναίκα ήρθε σε εμένα ύστερα από εβδομάδες έντονου άγχους. Είχε ήδη “συζητήσει” εκτενώς με το ChatGPT, περιγράφοντας συμπτώματα και είχε πάρει απαντήσεις. Μου είπε: “Ένιωθα ότι επιτέλους κάποιος με ακούει χωρίς να με κρίνει”. Αυτό είναι το κλειδί: δεν έψαχνε μόνο απάντηση, έψαχνε χώρο. Τη ρώτησα: “Τι δεν σου έδωσε;”. Σιωπή. Και μετά απάντησε: “Δεν ένιωσα ότι με είδε πραγματικά”. Αυτό είναι όλο. Άλλο να σε ακούν, άλλο να σε αντέχουν. Ο άνθρωπος δεν αναζητά μόνο διάγνωση, αναζητά ανακούφιση. Και το AI δίνει ακριβώς αυτό, αλλά όχι αυτό που λείπει, δηλαδή τη σχέση. Μια φράση συνοψίζει το φαινόμενο: Όταν κάποιος μπαίνει στο ChatGPT, δεν ψάχνει τον καλύτερο γιατρό, ψάχνει τον πιο εύκολα διαθέσιμο ακροατή».
Η παγίδα
Σε μία άλλη περίπτωση, ο καθηγητής Ψυχιατρικής ανέφερε ότι ένας άνδρας με έντονο άγχος υγείας είχε περάσει μήνες συνομιλώντας με το AI, περιγράφοντας συμπτώματα: «Κάθε φορά λάμβανε ισορροπημένες, καθησυχαστικές απαντήσεις, αλλά εκείνος κρατούσε μόνο αυτό που φοβόταν. Σιγά σιγά άρχισε να “χτίζει” πεποίθηση ότι πάσχει από σοβαρή ασθένεια. Όταν ήρθε σε μένα, μου είπε: “Δεν μου είπε ποτέ ότι κάνω λάθος”. Και αυτό είναι το πρόβλημα, διότι οι στρεβλές σκέψεις παγιώνονται, η πραγματικότητα παραμορφώνεται και η ευθύνη της αλλαγής αποφεύγεται. Έτσι, νομίζεις ότι προχωράς ενώ απλώς ανακυκλώνεσαι. Η αλήθεια δεν είναι πάντα ευχάριστη. Αλλά χωρίς αυτήν, δεν υπάρχει ελευθερία», επισήμανε χαρακτηριστικά ο κ. Ντακανάλης, προσθέτοντας ότι «ένας ψυχοθεραπευτής θα σου πει ότι αυτό που σκέφτεσαι ίσως δεν ισχύει και πως αυτός ο φόβος σε καθορίζει περισσότερο απ’ όσο νομίζεις. Η τεχνητή νοημοσύνη λειτουργεί σαν καθρέφτης που λέει “έχεις δίκιο”. Κάποιες φορές το έχεις, αλλά όχι πάντα. Ένας θεραπευτής θα τολμήσει να πει το δύσκολο, να θέσει όρια, να αμφισβητήσει, να σου δείξει κάτι που δεν θέλεις να δεις. Θα αντέξει τη δυσαρέσκειά σου. Αυτή η τριβή είναι που οδηγεί στην ψυχική ωρίμανση, στο “μήπως δεν είναι έτσι;”».
Λάθος απαντήσεις
Πάνω στο κομμάτι με τη δοσολογία φαρμάκων, ο καθηγητής Ψυχιατρικής και Ψυχοθεραπείας, επέστησε ακόμα περισσότερο την προσοχή, αναφέροντας μία σοβαρή περίπτωση νέου άνδρα, ο οποίος είχε αρχίσει μόνος του αλλαγές σε αγωγή, βασισμένος σε πληροφορίες από AI: «Αύξησε τη δοσολογία, συνδύασε φάρμακα και το αποτέλεσμα ήταν η απορρύθμιση, η αϋπνία, η επιδείνωση. Όταν τον ρώτησα γιατί, απάντησε: “Νόμιζα ότι ξέρω… ότι ξέρει καλά το AI”. Αυτή είναι η πιο επικίνδυνη φράση, η γνώση χωρίς πλαίσιο είναι ψευδαίσθηση γνώσης. Η ψυχιατρική δεν είναι συνταγή, είναι διαδικασία, παρατήρηση, σχέση και ευθύνη. Το AI δεν βλέπει το βλέμμα, τη σιωπή, την αντίφαση, την ιστορία πίσω από τα συμπτώματα. Και όμως, εκεί βρίσκεται η ουσία, γιατί το σύμπτωμα δεν είναι μόνο εχθρός. Είναι και μήνυμα. Όταν η ψυχή υποφέρει, μιλάει το σώμα και το σώμα παίρνει το σχήμα που έχει η ψυχή. Στην ψυχιατρική και στην ψυχοθεραπεία δεν θεραπεύουμε μόνο συμπτώματα, θεραπεύουμε πρωτίστως ανθρώπους. Η AI δεν μπορεί να δει αυτά που δεν γράφονται όπως το βλέμμα, η σιωπή, η αντίφαση, το βίωμα, η σχέση και κυρίως δεν αναλαμβάνει την ευθύνη. Η πληροφορία χωρίς ευθύνη είναι επικίνδυνη. Η ιατρική χωρίς σχέση είναι ρίσκο ζωής».
Για τον κ. Ντακανάλη, ένας από τους μεγαλύτερους κινδύνους δεν είναι η λάθος απάντηση, είναι η καθυστέρηση να απευθυνθεί κάποιος σε ειδικό: «Όταν νιώθουμε ότι “το έχουμε ήδη ψάξει”, συχνά αργούμε να ζητήσουμε πραγματική βοήθεια. Στην ψυχική υγεία ο χρόνος έχει σημασία, όπως και η θεραπευτική σχέση. Ο άνθρωπος δεν θεραπεύεται επειδή πήρε μια απάντηση. Θεραπεύεται όταν νιώθει ότι κάποιος τον βλέπει, τον καταλαβαίνει και μένει μαζί του, στα εύκολα και στα δύσκολα, στα σκοτάδια και στο φως. Και ίσως το πιο σημαντικό: ο άνθρωπος δεν χρειάζεται απλώς απαντήσεις. Χρειάζεται κάποιον που να μπορεί να αντέξει μαζί του τα ερωτήματα. Και αυτό, καμία μηχανή δεν μπορεί να το υποκαταστήσει».
Εφημερίδα Απογευματινή









