Skip to main content

Η πρόταση ρύθμισης της Τεχνητής Νοημοσύνης

Άρθρο του Σταύρου Κουμεντάκη, Managing Partner στην εταιρεία Koumentakis and Associates Law Firm, για τη ρύθμιση της Τεχνητής Νοημοσύνης.

Του Σταύρου Κουμεντάκη*

H Τεχνητή Νοημοσύνη (Artificial Intelligence, στο εξής: “AI”) συνιστά, αναμφίβολα, «τεχνολογία του μέλλοντος». Εντούτοις, η χρήση, αξιοποίηση και επιρροή της στις διάφορες εκφάνσεις της ζωής και δραστηριότητες έχει, εδώ και καιρό, ξεκινήσει. Διεκδικεί μάλιστα, ολοένα, και μεγαλύτερο έδαφος-ακόμα και σε τομείς που δεν θα ήταν δυνατό πριν από μερικά χρόνια να διανοηθούμε. (Η AI, λ.χ., στην υπηρεσία της δικαιοσύνης μας απασχόλησε, ήδη, σε προηγούμενη αρθρογραφία μας).  Η ΕΕ αισθάνθηκε την ανάγκη, και ορθά-έστω και λίγο καθυστερημένα, να ξεκινήσει τη διαδικασία της ρύθμισής της. Όσο αυτό είναι εφικτό.

Η ενασχόληση της Ευρωπαϊκής Επιτροπής με την Τεχνητή Νοημοσύνη

Η Ευρωπαϊκή Επιτροπή προχώρησε, πρόσφατα, στη δημοσίευση της Πρότασης Κανονισμού για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη. Πρόκειται για την ευρωπαϊκή προσέγγιση που αποσκοπεί σε μια αξιόπιστη ΑΙ που θα υπηρετεί τις ευρωπαϊκές αρχές, αξίες και, ιδίως, τον άνθρωπο.

Ο ορισμός της ΑΙ

Η ΑΙ συνιστά, όπως ήδη σημειώθηκε, αντικείμενο άγνωστο για τους περισσότερους από εμάς. Ακόμα όμως κι ο ορισμός της, δεν μοιάζει εύκολα κατανοητός: «σύστημα τεχνητής νοημοσύνης» είναι, κατά την Πρόταση, το «λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις (όπως αυτές παρατίθενται στο Παράρτημα I της πρότασης) και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά» (άρθρο 3 περ. 1).

Ο σκοπός του (προτεινόμενου) Κανονισμού

Ως σκοπός του Κανονισμού προσδιορίζεται η βελτίωση της λειτουργίας της εσωτερικής αγοράς με τη θέσπιση ενιαίου νομικού πλαισίου (ιδίως) για την ανάπτυξη, την εμπορία και τη χρήση της τεχνητής νοημοσύνης-σύμφωνα με τις αξίες της Ένωσης. Επίσης: η διασφάλιση υψηλού επιπέδου προστασίας της υγείας, της ασφάλειας και των θεμελιωδών δικαιωμάτων.

Η προσέγγιση της χρήσης ΑΙ με βάση τον κίνδυνο

Ο Κανονισμός ως προς τους τρόπους χρήσης της ΑΙ προβαίνει σε μια προσέγγιση με βάση τον κίνδυνο που δημιουργείται από την αξιοποίησή της. Συγκεκριμένα, οι χρήσεις τις ΑΙ διακρίνονται σε αυτές που δημιουργούν:

Μη αποδεκτό κίνδυνο: Ορισμένα συστήματα ΑΙ κρίνεται ότι δημιουργούν μη αποδεκτό κίνδυνο (εκείνα, λ.χ., που έχουν σημαντικές δυνατότητες χειραγώγησης προσώπων ή που εκμεταλλεύονται τα τρωτά σημεία συγκεκριμένων ευάλωτων ομάδων). Τέτοιου είδους χρήσεις της ΑΙ απαγορεύονται.

Υψηλό κίνδυνο: Κάποια συστήματα ΑΙ κρίνεται ότι προκαλούν υψηλό κίνδυνο για την υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των φυσικών προσώπων. Για τα συστήματα αυτά επιφυλάσσονται ειδικοί κανόνες.

Χαμηλό κίνδυνο: Για τα συστήματα ΑΙ μη υψηλού κινδύνου επιβάλλονται μόνο πολύ περιορισμένες υποχρεώσεις διαφάνειας.

Οι εξελίξεις της τεχνολογίας είναι αληθινά ραγδαίες, ακόμα και για κείνους που ασχολούνται με εκείνη. Πολύ περισσότερο για μας-τους υπόλοιπους. Αναγκαία όμως προκύπτει η προστασία όλων (επαϊόντων και μη) από τους κινδύνους που συνεπάγεται η χρήση και αξιοποίηση των ευχερειών της Τεχνητής Νοημοσύνης. Το σχέδιο Κανονισμού κινείται (και) προς τη συγκεκριμένη κατεύθυνση.

Ερώτημα πάντως που μέλλει να απαντηθεί από την επόμενη, μάλλον, γενιά: Είναι, άραγε, εφικτό να τεθεί η Τεχνητή Νοημοσύνη σε αυστηρά προσδιορισμένο πλαίσιο έξω από το οποίο δεν θα είναι δυνατό να κινηθεί;

Φοβάμαι πως όχι.-

*Ο Σταύρος Κουμεντάκης είναι Managing Partner στην εταιρεία Koumentakis and Associates Law Firm

Σημ.: Το παρόν άρθρο σε πλήρη μορφή