Μελλοντικά τα ρομπότ μπορεί να αποφασίζουν στα πεδία των μαχών για τη ζωή ή τον θάνατο χωρίς ανθρώπινο έλεγχο. Χάρη στην τεχνολογία οι δυνατότητες των αυτόνομων όπλων συνεχώς βελτιώνονται. Τα ΗΕ συζητούν για το θέμα.
Με ένα δυνατό βουητό, το μίνι μη επανδρωμένο αεροσκάφος μπαίνει σαν σίφουνας σε αίθουσα διδασκαλίας και με πυροβολισμούς στο κεφάλι σκοτώνει συγκεκριμένους φοιτητές. Πρόκειται για ένα εικονικό φιλμ που δείχνουν στο youtube πολέμιοι των λεγόμενων αυτόνομων όπλων. Τα drones στοχεύουν πάνω στα θύματά τους με τη βοήθεια αλγόριθμων. Και όταν βρουν τον στόχο δεν υπάρχει επιστροφή. Τα δεδομένα τους τα ανλτούν από τα κοινωνικά δίκτυα. Ιστορία φαντασίας;
«Κάθε άλλο» λέει ο Τόμας Κιχενμάιστερ. «Το βήμα για να φτάσουμε εκεί είναι μικρό». Όπως γράφει η Deutsche Welle, ο Κιχενμάιστερ είναι στο προεδρείο του Facing Finance, μιας γερμανικής οργάνωσης της διεθνούς καμπάνιας «Stop Killer Robots». Όπλα που μπορούν ως ένα βαθμό να κινηθούν αυτόνομα ανήκουν πλέον στην συνήθη προσφορά. Όπως οι πύραυλοι, που ψάχνουν τους στόχους τους και τελικά αποφασίζουν μόνοι τους ποιους θα καταστρέψουν. Βασικά η τηλεκατεύθυνση έχει ανθρώπινο χέρι, αλλά πολύ συχνά χάνεται ο έλεγχος. Ο Κιχενμάιαστερ το βρίσκει πολύ προβληματικό. «Διότι δεν μπορεί έτσι να υπάρξει διάκριση ανάμεσα σε στρατιωτικά και πολιτικά οχήματα». Αλλά αυτό ακριβώς προβλέπει το ανθρωπιστικό δίκαιο. Η διάκριση ανάμεσα σε στρατιώτες και αμάχους είναι σημαντικός κανόνας στο δίκαιο πολέμου, που δεσμεύει τα εμπόλεμα μέρη να προστατεύουν τους άμαχους και τα οικήματά τους.
Σε αυτό το πνεύμα η Διεθνής Επιτροπή του Ερυθρού Σταυρού ορίζει ως αυτόνομα όπλα, εκείνα που αναζητούν μόνα τους στόχους, επιτίθενται ή τους καταστρέφουν. Αυτόνομα σημαίνει χωρίς ανθρώπινη ανάμειξη. Και εδώ ακριβώς υπάρχει το πρόβλημα. Τι θα συμβεί, εάν ένας τέτοιος πύραυλος, κατά την αυτόνομη επιλογή του στόχου δεν εξουδετερώσει εχθρικά πυρά, αλλά σκοτώσει και αμάχους; «Δεν είμαστε σε θέση να βάλουμε ένα τσιπάκι με οδηγίες ανθρωπιστικού δικαίου», λέει με νόημα ο Τόμας Κιρχενμάιστερ. Το ότι ο βαθμός αυτονομίας γίνεται συνεχώς μεγαλύτερος, οφείλεται στην ραγδαία πρόοδο στον τομέα της τεχνητής νοημοσύνης και στη ρομποτική.
Στο μεταξύ οι μηχανές δείχνουν ικανότητες μάθησης, επεξεργάζονται εμπειρίες μέσω τεχνητών νευρωνικών δικτύων, όπως και ο ανθρώπινος εγκέφαλος. Η βιομηχανία εξοπλισμών το εκμεταλλεύεται. Τα όπλα γίνονται όλο και πιο γρήγορα και αποτελεσματικά, την ώρα που ο κίνδυνος για τους στρατιώτες μειώνεται. Αυτό ακριβώς είναι που επιδιώκουν οι στρατοί. Τα όρια όμως είναι ρευστά. Ενώ ένα ρομπότ που αναζητά, αναγνωρίζει και εξουδετερώνει αυτόνομα νάρκες είναι αποδεκτό, όταν αναζητά ορισμένους ανθρώπους και τους πυροβολεί, πρόκειται για μια καθαρή περίπτωση παραβίασης του διεθνούς δικαίου.
Πώς θα υπαχθούν όμως αυτά τα όπλα στο δημόσιο διεθνές δίκαιο; Η διεθνής κοινότητα ερίζει από το 2014, στο πλαίσιο της Συμφωνίας για τα μερικά συμβατικά Όπλα CCW του ΟΗΕ. Από τις ανεπίσημες συνομιλίες πέρασε το θέμα σε επίσημες διαπραγματεύσεις το 2018 με τη συμμετοχή 70 χωρών, επιστημόνων και ΜΚΟ.
Αντικείμενο των συζητήσεων που ξεκίνησαν σήμερα και θα διαρκέσουν μέχρι τέλος του μηνός είναι τα θανατηφόρα αυτόνομα οπλικά συστήματα (Lethal Autonomous Weapon Systems, LAWS). Μπορεί να είναι ένα ρομπότ, που πολεμά στα πεδία των μαχών, αλλά και μικρά μη επανδρωμένα αεροσκάφη, που δεν υπάρχουν ακόμη βέβαια, αλλά ενδεχομένως στο εγγύς μέλλον. Πολύς χρόνος δεν απομένει. Η διεθνής κοινότητα είναι διαιρεμένη ανάμεσα σε 3 στρατόπεδα. Ανάμεσα σε χώρες που τα πολεμούν και ζητούν απαγόρευση των αυτόνομων όπλων και σε αυτές που προτείνουν μεσαίο δρόμο, ανάμεσά στους η Γερμανία και η Γαλλία. Τέλος, κατά της απαγόρευσης είναι χώρες που επενδύουν πολλά χρήματα στη στρατιωτική χρήση της τεχνητής νοημοσύνης, όπως οι ΗΠΑ, η Ρωσία, το Ισραήλ και η Βρετανία.