Το Computer Science and Artificial Intelligence Laboratory (CSAIL) του MIT εγκαινίασε το Αποθετήριο Κινδύνων Τεχνητής Νοημοσύνης, μια βάση δεδομένων με περισσότερους από 700 τεκμηριωμένους κινδύνους που σχετίζονται με το AI. Σύμφωνα με την ανακοίνωση του CSAIL, η βάση δεδομένων είναι η πρώτη του είδους της και θα ενημερώνεται συνεχώς ώστε να μπορεί να χρησιμοποιείται ως ενεργός πόρος.
Το έργο ξεκίνησε λόγω ανησυχιών ότι η παγκόσμια υιοθέτηση του AI ξεπερνά την ικανότητα των ανθρώπων και των οργανισμών να κατανοούν τους κινδύνους της εφαρμογής της. Τα δεδομένα δείχνουν ότι η χρήση της τεχνητής νοημοσύνης στις αμερικανικές βιομηχανίες αυξήθηκε από 3,7% σε 5,45% -μια αύξηση κατά 47%- μεταξύ Σεπτεμβρίου 2023 και Φεβρουαρίου 2024. Ερευνητές από το CSAIL και το FutureTech Lab του MIT βρήκαν ότι «ακόμα και το πιο πλήρες πλαίσιο παραβλέπει περίπου το 30% των κινδύνων που έχουν αναγνωριστεί σε όλα τα πλαίσια που εξετάστηκαν».
Η κατακερματισμένη βιβλιογραφία για τους κινδύνους μπορεί να δυσκολέψει τους υπεύθυνους χάραξης πολιτικής, τους αξιολογητές κινδύνων και άλλους να αποκτήσουν πλήρη εικόνα των ζητημάτων που αντιμετωπίζουν. «Είναι δύσκολο να βρει κανείς συγκεκριμένες μελέτες κινδύνων σε μερικούς εξειδικευμένους τομείς όπου χρησιμοποιείται το AI, όπως τα όπλα και τα συστήματα υποστήριξης στρατιωτικών αποφάσεων», δήλωσε ο Taniel Yusef, ερευνητής του Cambridge που δεν σχετίζεται με το έργο. «Χωρίς αναφορά σε αυτές τις μελέτες, μπορεί να είναι δύσκολο να μιλήσει κανείς για τεχνικές πτυχές των κινδύνων του AI σε μη ειδικούς. Αυτό το αποθετήριο μας βοηθά να το κάνουμε αυτό».
Χωρίς μια βάση δεδομένων, ορισμένοι κίνδυνοι μπορούν να περάσουν απαρατήρητοι και να μην αντιμετωπιστούν επαρκώς, εξήγησε η ανακοίνωση με την οποία παρουσιάζεται το έργο. «Δεδομένου ότι η βιβλιογραφία για τους κινδύνους της τεχνητής νοημοσύνης είναι διασκορπισμένη σε επιστημονικά περιοδικά, προεκτυπώσεις και βιομηχανικές αναφορές, και είναι αρκετά ποικίλη, ανησυχώ ότι εκείνοι που λαμβάνουν αποφάσεις μπορεί άθελά τους να συμβουλευτούν ελλιπείς επισκοπήσεις, να παραλείψουν σημαντικές ανησυχίες και να αναπτύξουν συλλογικές τυφλές γωνίες», δήλωσε ο Dr. Peter Slattery από το FutureTech Lab.
Για την αντιμετώπιση αυτού του ζητήματος, οι ερευνητές του MIT συνεργάστηκαν με ομολόγους τους από άλλα ιδρύματα, συμπεριλαμβανομένων των Πανεπιστημίων του Queensland, του Future of Life Institute, του KU Leuven και του Harmony Intelligence, για να δημιουργήσουν τη βάση δεδομένων. Το αποθετήριο στοχεύει να παρέχει «μια προσβάσιμη επισκόπηση του τοπίου των κινδύνων της τεχνητής νοημοσύνης» και να λειτουργεί ως καθολικό σημείο αναφοράς που μπορεί να χρησιμοποιηθεί από όλους, από ερευνητές και developers έως επιχειρήσεις και υπεύθυνους χάραξης πολιτικής.
Για τη δημιουργία του, οι ερευνητές ανέπτυξαν 43 πλαίσια ταξινόμησης κινδύνων, εξετάζοντας ακαδημαϊκά αρχεία και βάσεις δεδομένων και συνομιλώντας με αρκετούς ειδικούς. Αφού συγκέντρωσαν περισσότερους από 700 κινδύνους από αυτά τα 43 πλαίσια, οι ερευνητές κατηγοριοποίησαν κάθε κίνδυνο με βάση την αιτία (πότε ή γιατί συμβαίνει), τον τομέα και τον υποτομέα (όπως «Παραπληροφόρηση» και «Ψευδείς ή παραπλανητικές πληροφορίες»).
Οι κίνδυνοι κυμαίνονται από διακρίσεις και παραπλανήσεις έως απάτη, στοχευμένη χειραγώγηση και μη ασφαλή χρήση. «Οι τομείς κινδύνων που αναφέρονται πιο συχνά», εξηγεί η ανακοίνωση, «περιλάμβαναν την ασφάλεια, αποτυχίες και περιορισμούς των συστημάτων τεχνητής νοημοσύνης (76% των εγγράφων), τις κοινωνικοοικονομικές και περιβαλλοντικές βλάβες (73%), τις διακρίσεις και τοξικότητα (71%), την ιδιωτικότητα και ασφάλεια (68%) και τους κακόβουλους παράγοντες και την κακή χρήση (68%)».
Οι ερευνητές διαπίστωσαν ότι η αλληλεπίδραση ανθρώπου-υπολογιστή και η παραπληροφόρηση ήταν οι λιγότερο αντιμετωπισμένες στα πλαίσια κινδύνων. Το 51% των αναλυθέντων κινδύνων αποδόθηκε σε συστήματα τεχνητής νοημοσύνης, σε αντίθεση με το 34% που αποδόθηκε σε ανθρώπους, και το 65% των κινδύνων προέκυψε μετά την εφαρμογή της τεχνητής νοημοσύνης, σε αντίθεση με τη διαδικασία ανάπτυξης της.
Θέματα όπως οι διακρίσεις, οι παραβιάσεις της ιδιωτικότητας και η έλλειψη ικανοτήτων ήταν τα πιο συζητημένα ζητήματα, καθώς εμφανίζονται σε πάνω από το 50% των εγγράφων που εξέτασαν οι ερευνητές. Ανησυχίες ότι η τεχνητή νοημοσύνη προκαλεί ζημιά στα πληροφοριακά μας οικοσυστήματα αναφέρθηκαν πολύ λιγότερο, μόνο στο 12% των εγγράφων. Το MIT ελπίζει ότι το αποθετήριο θα βοηθήσει τους λήπτες αποφάσεων να πλοηγηθούν καλύτερα και να αντιμετωπίσουν τους κινδύνους που προκαλεί η τεχνητή νοημοσύνη, ειδικά με τόσες πολλές πρωτοβουλίες διακυβέρνησης του ΑΙ που εμφανίζονται ραγδαία, παγκοσμίως.
Οι ερευνητές σχεδιάζουν να χρησιμοποιήσουν το αποθετήριο για να αναλύσουν δημόσια έγγραφα από εταιρείες και προγραμματιστές τεχνητής νοημοσύνης, προκειμένου να προσδιορίσουν και να συγκρίνουν τις προσεγγίσεις κινδύνου ανά τομέα. Το Αποθετήριο Κινδύνων Τεχνητής Νοημοσύνης είναι διαθέσιμο για λήψη και αντιγραφή δωρεάν.
Χρήστος Κοτσακάς – infocom.gr