Το μείζον θέμα της δεοντολογίας κατά τη χρήση τεχνολογιών, που σχετίζονται με την Τεχνητή Νοημοσύνη (Artificial Intelligence-AI) επιχειρεί να λύσει η Ευρώπη. Πρώτη, παγκοσμίως, η Ευρωπαϊκή Ένωση επεξεργάζεται έναν “Κώδικα Δεοντολογίας” για την Τεχνητή Νοημοσύνη. Η Επιτροπή καλεί τις επιχειρήσεις, τα ερευνητικά ιδρύματα και τις δημόσιες Αρχές να ενημερωθούν για τις κατευθυντήριες γραμμές δεοντολογίας. Δρομολογεί δε μια πιλοτική φάση για να εξασφαλίσει ότι οι κατευθυντήριες γραμμές δεοντολογίας για την ανάπτυξη και τη χρήση τεχνητής νοημοσύνης, είναι δυνατό να εφαρμοστούν στην πράξη. Το θέμα της δεοντολογίας θεωρείται μείζονος σημασίας για την οικοδόμηση της εμπιστοσύνης στις ψηφιακές τεχνολογίες, που βασίζονται στην Τεχνητή Νοημοσύνη.
“Η τεχνητή νοημοσύνη μπορεί να ωφελήσει ευρύ φάσμα τομέων, όπως η ιατροφαρμακευτική περίθαλψη, η κατανάλωση ενέργειας, η ασφάλεια των αυτοκινήτων, η γεωργία, η κλιματική αλλαγή και η διαχείριση των χρηματοοικονομικών κινδύνων. Μπορεί, επίσης, να συμβάλει στον εντοπισμό περιπτώσεων απάτης και απειλών για την κυβερνοασφάλεια και βοηθά τις Αρχές επιβολής του νόμου να καταπολεμούν αποτελεσματικότερα την εγκληματικότητα. Ωστόσο, συνεπάγεται, επίσης, νέες προκλήσεις για το μέλλον της εργασίας και εγείρει νομικά και δεοντολογικά ζητήματα”, αναφέρει η Επιτροπή.
Η Ένωση έχει παρουσιάσει, εδώ και ένα χρόνο, τη στρατηγική της για την ΑΙ, που αποσκοπεί στην αύξηση των δημόσιων και ιδιωτικών επενδύσεων, ώστε να ανέλθουν σε τουλάχιστον €20 δις ετησίως κατά την επόμενη δεκαετία.
Κώδικας Δεοντολογίας
Ο Κώδικας Δεοντολογίας προβλέπει ότι η αξιόπιστη Τεχνητή Νοημοσύνη θα πρέπει να τηρεί όλες τις εφαρμοστές νομοθετικές και κανονιστικές διατάξεις, καθώς και μια σειρά απαιτήσεων. Τα συστήματα ΑΙ θα πρέπει να διευκολύνουν την προαγωγή ισότιμων κοινωνιών, υποστηρίζοντας την ανθρώπινη παρέμβαση και τα θεμελιώδη δικαιώματα και να μη μειώνουν, περιορίζουν ή παραπλανούν την ανθρώπινη αυτονομία.
Επίσης, για την επίτευξη αξιόπιστης Τεχνητής Νοημοσύνης απαιτούνται αλγόριθμοι επαρκώς ασφαλείς, αξιόπιστοι και στιβαροί, ώστε να μπορούν να αντιμετωπίζουν σφάλματα ή ασυνέπειες σε όλες τις φάσεις του κύκλου ζωής των συστημάτων.
Όσον αφορά την ιδιωτικότητα, οι πολίτες θα πρέπει να έχουν απόλυτο έλεγχο των προσωπικών τους δεδομένων, ενώ τα δεδομένα που τους αφορούν δεν θα χρησιμοποιούνται για να τους βλάψουν ή για να εισαγάγουν διακρίσεις εις βάρος τους.
Εξάλλου, σε επίπεδο διαφάνειας θα πρέπει να εξασφαλίζεται η ιχνηλασιμότητα των συστημάτων Τεχνητής Νοημοσύνης.
Στο μεταξύ, τα συστήματα ΑΙ θα πρέπει να λαμβάνουν υπόψη όλο το φάσμα των ανθρώπινων ικανοτήτων, δεξιοτήτων και αναγκών και να διασφαλίζουν την προσβασιμότητα και να χρησιμοποιούνται για την ενίσχυση των θετικών κοινωνικών αλλαγών, της βιωσιμότητας και της οικολογικής ευθύνης. Απαραίτητη προϋπόθεση είναι, άλλωστε, να δημιουργηθούν μηχανισμοί μέσω των οποίων θα διασφαλίζεται η υπευθυνότητα και η λογοδοσία για τα συστήματα Τεχνητής Νοημοσύνης και τα αποτελέσματά τους.
sepe.gr