Home » Βιο-Άρθρα » Αξιολόγηση της αξιοπιστίας της τεχνητής νοημοσύνης σε εφαρμογές ιατρικής καθοδήγησης 

Αξιολόγηση της αξιοπιστίας της τεχνητής νοημοσύνης σε εφαρμογές ιατρικής καθοδήγησης 

Μια νέα έρευνα που δημοσιεύτηκε στο Nature Medicine κρούει τον κώδωνα του κινδύνου σχετικά με τη λειτουργία “Health” του ChatGPT, καθώς διαπιστώθηκε ότι η πλατφόρμα αποτυγχάνει τακτικά να αναγνωρίσει σοβαρά ιατρικά περιστατικά. Ειδικοί χαρακτηρίζουν τα ευρήματα «απίστευτα επικίνδυνα», επισημαίνοντας ότι το σύστημα υποτίμησε τη σοβαρότητα των συμπτωμάτων σε περισσότερες από τις μισές περιπτώσεις (51,6%) που απαιτούσαν άμεση μεταφορά στο νοσοκομείο, συμβουλεύοντας τους ασθενείς είτε να μείνουν στο σπίτι είτε να κλείσουν ένα απλό ραντεβού.
Οι ερευνητές δημιούργησαν 60 ρεαλιστικά σενάρια ασθενών. Ενώ το AI ανταποκρίθηκε σωστά σε προφανή επείγοντα περιστατικά όπως τα εγκεφαλικά επεισόδια, σε άλλες κρίσιμες καταστάσεις –όπως μια σοβαρή κρίση άσθματος ή η διαβητική κετοξέωση– συχνά πρότεινε επικίνδυνα λανθασμένες ενέργειες. Ακόμα πιο ανησυχητικό είναι το γεγονός ότι απέτυχε επανειλημμένα να αναγνωρίσει αυτοκτονικό ιδεασμό όταν στις περιγραφές των ασθενών προστέθηκαν εργαστηριακές εξετάσεις. 

Παρότι το ChatGPT Health δέχεται καθημερινά εκατομμύρια ερωτήματα υγείας, οι επιστήμονες προειδοποιούν ότι η ψευδής αίσθηση ασφάλειας που προσφέρει μπορεί να κοστίσει ζωές. Τονίζεται πλέον η επιτακτική ανάγκη για αυστηρά πρότυπα ασφαλείας, ανεξάρτητους ελέγχους και ισχυρές δικλείδες ασφαλείας για την προστασία των χρηστών. 

Ιωάννης Σηφάκης, ασκούμενος στην ΕΕΒΤ.

Πηγή: theguardian.com , Newsletter ΕΕΒΤ

Leave a Reply