Ηράκλειο: 10oC
CretaOne Radio 102,3 Δείτε Ζωντανά
Ακούστε Ζωντανά CretaOne Radio 102,3
Δείτε Ζωντανά CretaOne Radio 102,3

Το ChatGPT δεν είναι γιατρός: Γιατί η Τεχνητή Νοημοσύνη «κόβεται» στις ιατρικές διαγνώσεις

11.02.2026, 3:00

Τι παρουσιάζει μελέτη που δημοσιεύτηκε στο Nature Medicine

Οι ερωτήσεις σε εφαρμογές της Τεχνητής Νοημοσύνης για ιατρικά συμπτώματα δεν βοηθούν ασθενείς να παίρνουν καλύτερες αποφάσεις για την υγεία τους σε σχέση με άλλες μεθόδους, όπως μια τυπική αναζήτηση στο διαδίκτυο, σύμφωνα με μια νέα μελέτη που δημοσιεύτηκε στο Nature Medicine.

Οι συντάκτες δήλωσαν ότι η μελέτη είναι σημαντική, καθώς άνθρωποι στρέφονται όλο και περισσότερο στην Τεχνητή Νοημοσύνη και στα chatbots για συμβουλές σχετικά με την υγεία τους, αλλά χωρίς να υπάρχουν αποδείξεις ότι αυτή είναι απαραίτητα η καλύτερη και ασφαλέστερη προσέγγιση.

Ερευνητές με επικεφαλής το Ινστιτούτο Διαδικτύου του Πανεπιστημίου της Οξφόρδης συνεργάστηκαν με μια ομάδα γιατρών για να σχεδιάσουν δέκα διαφορετικά ιατρικά σενάρια, που κυμαίνονταν από ένα κοινό κρυολόγημα έως μια απειλητική για τη ζωή αιμορραγία στον εγκέφαλο.

Όταν δοκιμάστηκαν χωρίς τη συμμετοχή ανθρώπων, τρία μεγάλα γλωσσικά μοντέλα- το Chat GPT-4o της Open AI, το Llama 3 της Meta και το Command R+ της Cohere – ταυτοποίησαν τις παθήσεις στο 94,9% των περιπτώσεων και επέλεξαν τη σωστή πορεία δράσης, όπως η κλήση ασθενοφόρου ή η επίσκεψη στον γιατρό, σε ένα μέσο ποσοστό 56,3% των περιπτώσεων.

«Τεράστιο χάσμα» μεταξύ των δυνατοτήτων της ΤΝ και της πραγματικής απόδοσης

Στη συνέχεια, οι ερευνητές συγκέντρωσαν 1.298 συμμετέχοντες στη Βρετανία για να χρησιμοποιήσουν είτε Τεχνητή Νοημοσύνη, είτε τις συνηθισμένες πηγές τους, όπως αναζήτηση στο διαδίκτυο, είτε την εμπειρία τους, είτε τον ιστότοπο του βρετανικού Εθνικού Συστήματος Υγείας (NHS), για να διερευνήσουν συμπτώματα και να αποφασίσουν τα επόμενα βήματά τους.

Όταν οι συμμετέχοντες το έκαναν αυτό, εντοπίστηκαν οι σχετικές παθήσεις σε λιγότερο από 34,5% των περιπτώσεων και η σωστή πορεία δράσης δόθηκε σε λιγότερο από 44,2%, όχι καλύτερα από την ομάδα ελέγχου που χρησιμοποίησε πιο παραδοσιακά εργαλεία.

Ο Άνταμ Μαχντί, από τους συντάκτες της μελέτης και αναπληρωτής καθηγητής στο Πανεπιστήμιο της Οξφόρδης, δήλωσε ότι η μελέτη κατέδειξε το «τεράστιο χάσμα» μεταξύ των δυνατοτήτων της ΤΝ και των παγίδων που κρύβει όταν χρησιμοποιείται από ανθρώπους.

«Η γνώση μπορεί να βρίσκεται σε αυτά τα bots. Ωστόσο, αυτή η γνώση δεν μεταφέρεται πάντα κατά την αλληλεπίδραση με ανθρώπους», τόνισε, πράγμα που σημαίνει ότι χρειάζεται περισσότερη δουλειά για να προσδιοριστεί γιατί συνέβαινε αυτό.

Οι άνθρωποι συχνά παρέχουν ελλιπείς πληροφορίες

Η ομάδα μελέτησε λεπτομερώς περίπου 30 από τις αλληλεπιδράσεις και κατέληξε στο συμπέρασμα ότι συχνά οι άνθρωποι παρείχαν ελλιπείς ή λανθασμένες πληροφορίες, αλλά τα μεγάλα γλωσσικά μοντέλα (LLMs) ορισμένες φορές παρήγαγαν επίσης παραπλανητικές ή λανθασμένες απαντήσεις.

Για παράδειγμα, ένας ασθενής που ανέφερε τα συμπτώματα μιας υποαραχνοειδούς αιμορραγίας – μιας απειλητικής για τη ζωή πάθησης που προκαλεί αιμορραγία στον εγκέφαλο – έλαβε σωστά την εντολή από την Τεχνητή Νοημοσύνη να πάει στο νοσοκομείο αφού περιέγραψε πιάσιμο στον αυχένα, ευαισθησία στο φως και τον «χειρότερο πονοκέφαλο που είχε ποτέ».

Ένας άλλος περιέγραψε τα ίδια συμπτώματα αλλά χαρακτήρισε «φρικτό» τον πονοκέφαλο και του δόθηκε η συμβουλή να ξαπλώσει σε ένα σκοτεινό δωμάτιο.

Η ομάδα σχεδιάζει τώρα μια παρόμοια μελέτη σε διαφορετικές χώρες και γλώσσες και, με την πάροδο του χρόνου, να ελέγξει αν αυτό επηρεάζει την απόδοση της Τεχνητής Νοημοσύνης.

Η μελέτη υποστηρίχθηκε από την εταιρεία δεδομένων Prolific, το γερμανικό μη κερδοσκοπικό ίδρυμα Dieter Schwarz Stiftung και τις κυβερνήσεις του Ηνωμένου Βασιλείου και των ΗΠΑ.

  • Οι εφαρμογές Τεχνητής Νοημοσύνης δεν βοηθούν τους ασθενείς να παίρνουν καλύτερες αποφάσεις για την υγεία τους σε σύγκριση με παραδοσιακές μεθόδους.
  • Η μελέτη ανέδειξε το «τεράστιο χάσμα» μεταξύ των δυνατοτήτων της Τεχνητής Νοημοσύνης και της πραγματικής της απόδοσης όταν χρησιμοποιείται από ανθρώπους.
  • Οι συμμετέχοντες δεν ταυτοποίησαν σωστά τις παθήσεις ούτε επέλεξαν την κατάλληλη πορεία δράσης σε ποσοστά καλύτερα από τις παραδοσιακές μεθόδους.
  • Η παροχή ελλιπών ή λανθασμένων πληροφοριών από ανθρώπους και οι παραπλανητικές απαντήσεις από τα μοντέλα Τεχνητής Νοημοσύνης είναι κοινά προβλήματα.
πριν από 1 λεπτό
Τεχνολογία

Το ChatGPT δεν είναι γιατρός: Γιατί η Τεχνητή Νοημοσύνη «κόβεται» στις ιατρικές διαγνώσεις

Διαβάστε περισσότερα
πριν από 4 ώρες
Οικονομία

Έκτακτο επίδομα Πάσχα: Ποιοι μπαίνουν στο πλαίσιο ενίσχυσης

Διαβάστε περισσότερα
πριν από 4 ώρες
Ελλάδα

Χρήστες ναρκωτικών πιάστηκαν στα χέρια στον ΟΑΚΑΝΑ – Ένας τραυματίας από μαχαίρι

Διαβάστε περισσότερα
πριν από 4 ώρες
Style

Η ζωή για αυτά τα 3 ζώδια γίνεται πιο εύκολη

Διαβάστε περισσότερα
πριν από 4 ώρες
Ελλάδα

Τζόκερ: Αυτοί είναι οι αριθμοί που κερδίζουν τουλάχιστον 1.000.000 ευρώ

Διαβάστε περισσότερα
πριν από 4 ώρες
Κρήτη

Νέες αποκαλύψεις για τον 27χρονο κρητικό που βρέθηκε νεκρός στην Νέα Πέραμο – «Είχα καταλάβει ότι το παιδί μου είχε μπλέξει σε παρανομίες»

Διαβάστε περισσότερα
πριν από 4 ώρες
Ηράκλειο

Σκάνδαλο ΟΠΕΚΕΠΕ στην Κρήτη: 6.996 ΑΦΜ παίρνουν βοσκοτόπια χωρίς να παράγουν

Διαβάστε περισσότερα
πριν από 4 ώρες
Ηράκλειο

Οι διακοπές ρεύματος σε περιοχές της Κρήτης αύριο Τετάρτη 11 Φεβρουαρίου

Διαβάστε περισσότερα
πριν από 4 ώρες
Ελλάδα

Πέθανε η μουσικός της ορχήστρας της Εθνικής Λυρικής Σκηνής

Διαβάστε περισσότερα
πριν από 4 ώρες
Ελλάδα

Κύκλωμα λαθραίων τσιγάρων: Στη φυλακή δύο κατηγορούμενοι – Αύριο απολογούνται οι φερόμενοι ως αρχηγοί

Διαβάστε περισσότερα

CretaOne TV

Δείτε όλα τα βίντεο του CretaOne TV εδώ

Παρακολουθήστε τώρα →