Ο Παγκόσμιος Οργανισμός Υγείας (ΠΟΥ) κυκλοφόρησε μια νέα δημοσίευση στην οποία παρατίθενται βασικά ρυθμιστικά ζητήματα σχετικά με την τεχνητή νοημοσύνη (AI) για την Υγεία. Τονίζεται η σημασία της καθιέρωσης της ασφάλειας και της αποτελεσματικότητας των συστημάτων τεχνητής νοημοσύνης, της ταχείας διάθεσης των κατάλληλων συστημάτων σε όσους τα χρειάζονται και της ενθάρρυνσης του διαλόγου μεταξύ των ενδιαφερομένων, συμπεριλαμβανομένων των προγραμματιστών, των ρυθμιστικών αρχών, των κατασκευαστών, των εργαζομένων στον τομέα της υγείας και των ασθενών.
Με την αυξανόμενη διαθεσιμότητα δεδομένων υγειονομικής περίθαλψης και την ταχεία πρόοδο στις αναλυτικές τεχνικές – είτε μηχανικής μάθησης, είτε βάσει λογικής είτε στατιστικής – τα εργαλεία AI θα μπορούσαν να μεταμορφώσουν τον τομέα της Υγείας.
Ο ΠΟΥ αναγνωρίζει τις δυνατότητες της τεχνητής νοημοσύνης στην ενίσχυση των αποτελεσμάτων Υγείας, ενισχύοντας τις κλινικές δοκιμές. βελτίωση της ιατρικής διάγνωσης, θεραπείας, αυτοφροντίδας και ανθρωποκεντρικής φροντίδας και συμπληρώνοντας τις γνώσεις, τις δεξιότητες και τις ικανότητες των επαγγελματιών Υγείας. Για παράδειγμα, η τεχνητή νοημοσύνη θα μπορούσε να είναι ευεργετική σε περιβάλλοντα με έλλειψη ειδικών ιατρών, π.χ. στην ερμηνεία σαρώσεων αμφιβληστροειδούς και ακτινολογικών εικόνων μεταξύ πολλών άλλων.
Ωστόσο, οι τεχνολογίες τεχνητής νοημοσύνης – συμπεριλαμβανομένων μοντέλων μεγάλων γλωσσών – αναπτύσσονται γρήγορα, μερικές φορές χωρίς πλήρη κατανόηση του τρόπου λειτουργίας τους, κάτι που θα μπορούσε είτε να ωφελήσει είτε να βλάψει τους τελικούς χρήστες, συμπεριλαμβανομένων των επαγγελματιών υγείας και των ασθενών.
Όταν χρησιμοποιούν δεδομένα Υγείας, τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να έχουν πρόσβαση σε ευαίσθητες προσωπικές πληροφορίες, απαιτώντας ισχυρά νομικά και ρυθμιστικά πλαίσια για τη διασφάλιση του απορρήτου, της ασφάλειας και της ακεραιότητας, τα οποία αυτή η δημοσίευση στοχεύει να συμβάλει στη ρύθμιση και τη διατήρηση.
“Η τεχνητή νοημοσύνη υπόσχεται πολλά για την υγεία, αλλά συνοδεύεται και από σοβαρές προκλήσεις, όπως η μη νόμιμη συλλογή δεδομένων, οι απειλές για την ασφάλεια στον κυβερνοχώρο και η ενίσχυση των προκαταλήψεων ή της παραπληροφόρησης”, δήλωσε ο δρ Tedros Adhanom Ghebreyesus, γενικός διευθυντής του ΠΟΥ. “Αυτή η νέα καθοδήγηση θα υποστηρίξει τις χώρες να ρυθμίσουν αποτελεσματικά την τεχνητή νοημοσύνη, να αξιοποιήσουν τις δυνατότητές της, είτε στη θεραπεία του καρκίνου είτε στην ανίχνευση της φυματίωσης, ελαχιστοποιώντας παράλληλα τους κινδύνους”.
Ως απάντηση στις ανάγκες της αναπτυσσόμενης χώρας να διαχειριστεί υπεύθυνα την ταχεία άνοδο των τεχνολογιών Υγείας της τεχνητής νοημοσύνης, η δημοσίευση περιγράφει έξι τομείς για τη ρύθμιση της τεχνητής νοημοσύνης για την υγεία.
- Για την ενίσχυση της εμπιστοσύνης, η δημοσίευση τονίζει τη σημασία της διαφάνειας και της τεκμηρίωσης, όπως μέσω της τεκμηρίωσης ολόκληρου του κύκλου ζωής του προϊόντος και της παρακολούθησης των διαδικασιών ανάπτυξης.
- Για τη διαχείριση κινδύνου, ζητήματα όπως η “προβλεπόμενη χρήση”, η “συνεχής μάθηση”, οι ανθρώπινες παρεμβάσεις, τα μοντέλα εκπαίδευσης και οι απειλές για την ασφάλεια στον κυβερνοχώρο πρέπει να αντιμετωπιστούν πλήρως, με μοντέλα να είναι όσο το δυνατόν πιο απλά.
- Η εξωτερική επικύρωση δεδομένων και η σαφήνεια σχετικά με την προβλεπόμενη χρήση της τεχνητής νοημοσύνης συμβάλλει στη διασφάλιση της ασφάλειας και στη διευκόλυνση της ρύθμισης.
- Η δέσμευση στην ποιότητα των δεδομένων, όπως μέσω της αυστηρής αξιολόγησης των συστημάτων πριν από την κυκλοφορία, είναι ζωτικής σημασίας για να διασφαλιστεί ότι τα συστήματα δεν ενισχύουν προκαταλήψεις και σφάλματα.
- Οι προκλήσεις που θέτουν σημαντικοί, περίπλοκοι κανονισμοί – όπως ο Γενικός Κανονισμός για την Προστασία Δεδομένων (GDPR) στην Ευρώπη και ο Νόμος περί Φορητότητας και Υπευθυνότητας Ασφάλισης Υγείας (HIPAA) στις ΗΠΑ – αντιμετωπίζονται με έμφαση στην κατανόηση του πεδίου δικαιοδοσίας και απαιτήσεις συναίνεσης, στην υπηρεσία της προστασίας της ιδιωτικής ζωής και των δεδομένων.
- Η προώθηση της συνεργασίας μεταξύ ρυθμιστικών φορέων, ασθενών, επαγγελματιών υγείας, εκπροσώπων του κλάδου και κυβερνητικών εταίρων, μπορεί να συμβάλει στη διασφάλιση της συμμόρφωσης των προϊόντων και των υπηρεσιών με τους κανονισμούς καθ’ όλη τη διάρκεια του κύκλου ζωής τους.
Τα συστήματα τεχνητής νοημοσύνης είναι πολύπλοκα και εξαρτώνται όχι μόνο από τον κώδικα με τον οποίο έχουν κατασκευαστεί, αλλά και από τα δεδομένα στα οποία εκπαιδεύονται, τα οποία προέρχονται από κλινικές ρυθμίσεις και αλληλεπιδράσεις με τους χρήστες. Η καλύτερη ρύθμιση μπορεί να βοηθήσει στη διαχείριση των κινδύνων της τεχνητής νοημοσύνης που ενισχύει τις προκαταλήψεις στα δεδομένα εκπαίδευσης.
Για παράδειγμα, μπορεί να είναι δύσκολο για τα μοντέλα τεχνητής νοημοσύνης να αναπαραστήσουν με ακρίβεια την ποικιλομορφία των πληθυσμών, οδηγώντας σε προκαταλήψεις, ανακρίβειες ή ακόμα και αποτυχίες. Για τον μετριασμό αυτών των κινδύνων, μπορούν να χρησιμοποιηθούν κανονισμοί για να διασφαλιστεί ότι τα χαρακτηριστικά – όπως το φύλο, η φυλή και η εθνικότητα – των ατόμων που εμφανίζονται στα δεδομένα εκπαίδευσης αναφέρονται και ότι τα σύνολα δεδομένων γίνονται σκόπιμα αντιπροσωπευτικά.
Η νέα δημοσίευση του ΠΟΥ στοχεύει να περιγράψει βασικές αρχές που μπορούν να ακολουθήσουν οι κυβερνήσεις και οι ρυθμιστικές αρχές για να αναπτύξουν νέα καθοδήγηση ή να προσαρμόσουν τις υπάρχουσες οδηγίες σχετικά με την τεχνητή νοημοσύνη σε εθνικό ή περιφερειακό επίπεδο.