Το Ευρωπαϊκό Κοινοβούλιο ενέκρινε την Τετάρτη ψήφισμα που ζητεί την διεθνή απαγόρευση των όπλων που δεν τελούν υπό ανθρώπινο έλεγχο κατά την επιλογή και εκτέλεση στόχων. Η ανάπτυξη της τεχνητής νοημοσύνης, επιτρέπει σε ορισμένες χώρες και βιομηχανίες ν’ αναπτύσσουν και συστήματα αυτόνομων θανατηφόρων όπλων, πιο γνωστών ως “φονικών ρομπότ” (killer robots).
Αυτά περιλαμβάνουν πυραύλους που είναι σε θέση να επιλέξουν τους στόχους τους, ή μηχανές μάθησης με γνωστικές δεξιότητες που τους επιτρέπουν να αποφασίσουν σε ποιον να επιτεθεί, πότε και πού.
“Οι μηχανές δεν μπορούν να λάβουν αποφάσεις όπως οι “άνθρωποι”, γιατί εξακολουθεί να είναι ανθρώπινη ευθύνη να παρθούν αποφάσεις ζωής ή θανάτου, επιβεβαιώνουν οι ευρωβουλευτές στο ψήφισμά τους που υιοθετήθηκε με συντριπτική πλειοψηφία. Σε αυτό καλούν την Ευρωπαϊκή Επιτροπή και τα κράτη μέλη να λάβουν μια κοινή θέση σε αυτήν την κατεύθυνση και να υποστηρίξουν την απαγόρευση σε διεθνές επίπεδο.
Σύμφωνα με το BBC, τον προηγούμενο μήνα δεν επετεύχθη ομοφωνία στο ζήτημα, που είχε τεθεί στα Ηνωμένα Έθνη, αφού κάποιες χώρες υπεραμύνονται της εξέτασης των οφελών από την χρήση των αυτόνομων όπλων. Επίσης, σημειώνεται πως κάποιοι ευρωβουλευτές προβληματίζονται πως τέτοιου είδους νομοθεσία θα μπορούσε να περιορίσει την επιστημονική πρόοδο στον κλάδο της τεχνητής νοημοσύνης- ενώ άλλοι είπαν ότι θα μπορούσε να προκύψει σοβαρό πρόβλημα ασφαλείας, εάν κάποιες χώρες επιτρέψουν την ανάπτυξη τέτοιων όπλων, ενώ άλλες την απαγορεύσουν.
“Το ξέρω ότι αυτό μπορεί να μοιάζει σαν debate σχετικά με κάποιο μακρινό μέλλον ή με επιστημονική φαντασία. Δεν είναι” είπε η Φεντερίκα Μογκερίνι, επικεφαλής της εξωτερικής πολιτικής και της πολιτικής ασφαλείας της Ε.Ε., κατά τη συζήτηση στο Ευρωκοινοβούλιο.
“Τα αυτόνομα συστήματα όπλων πρέπει να απαγορευθούν σε διεθνές επίπεδο”, δήλωσε ο κ. Bodil Valero, εκπρόσωπος της πολιτικής ασφάλειας της ομάδας των Πρασίνων του Ευρωπαϊκού Κοινοβουλίου.
Το ψήφισμα έλαβε χώρα εν όψει διαπραγματεύσεων που έχουν προγραμματιστεί τον Νοέμβριο στα Ηνωμένα Έθνη, όπου ελπίζεται πως θα επιτευχθεί διεθνής απαγόρευση.
Επίσης, τον Αύγουστο έλαβε χώρα συνάντηση στα κεντρικά του ΟΗΕ στη Γενεύη με ειδικούς από πολλές χώρες, που αναζητούν τρόπους προσδιορισμού και αντιμετώπισης του θέματος αυτών των όπλων. Πολλοί είναι αυτοί που επισημαίνουν ότι η τεχνολογική πρόοδος- από drones με τεχνητή νοημοσύνη μέχρι όπλα που μπορούν να επιλέγουν μόνα τους στόχους τους- κινείται πιο γρήγορα από τους νόμους- ζητώντας ταχείς κινήσεις για να διασφαλιστεί πως η πρόοδος σε αυτόν τον τομέα δεν θα οδηγήσει σε “δυστοπικά” σενάρια, όπου πχ κούρσες εξοπλισμών στα αυτόνομα όπλα θα είχαν ως αποτέλεσμα την ευρεία εξάπλωσή τους.
“Δεν είναι πολύ αργά για να αλλάξουμε πορεία. Η απαγόρευση των πλήρως αυτόνομων οπλικών συστημάτων θα μπορούσε να αποτρέψει ορισμένα αληθινά δυστοπικά σενάρια, όπως μια νέα κούρσα εξοπλισμών υψηλής τεχνολογίας μεταξύ των παγκόσμιων υπερδυνάμεων, η οποία θα μπορούσε να προκαλέσει μεγάλη αύξηση των αυτόνομων όπλων”, επισημα΄νει ο Rasha Abdul Rahim, ερευνητής για θέματα τεχνητής νοημοσύνης στην Διεθνή Αμνηστία.
Ωστόσο, κάποιες χώρες- περιλαμβανομένων των ΗΠΑ, της Ρωσίας, της Νότιας Κορέας και του Ισραήλ- αντιτέθηκαν στην επιβολή μέτρων, υποστηρίζοντας ότι θέλουν να διερευνήσουν τα πιθανά “πλεονεκτήματα” από τη χρήση αυτόνομων όπλων.
Σημειώνεται ότι θέση για το ζήτημα έχουν λάβει με πρόσφατη ανοικτή επιστολή προς τον ΟΗΕ 116 σημαίνουσες προσωπικότητες του κόσμου της τεχνολογίας (και, ειδικότερα, εταιρειών των χώρων της ρομποτικής και της τεχνητής νοημοσύνης) από 26 χώρες, που προειδοποιούν πως τα φονικά αυτόνομα όπλα απειλούν να εξελιχθούν στην “Τρίτη επανάσταση στον πόλεμο”. “Θα μπορούσαν να αποτελέσουν όπλα τρομοκρατίας, όπλα που τύραννοι και τρομοκράτες χρησιμοποιούν εναντίον αθώων πληθυσμών, και όπλα που ‘χακάρονται’ για να λειτουργήσουν με ανεπιθύμητους τρόπους…όταν ανοίξει αυτό το κουτί της Πανδώρας, θα είναι δύσκολο να κλείσει”, αναφερόταν στην επιστολή.