Κίνδυνος πυρηνικού πολέμου εξαιτίας της τεχνητής νοημοσύνης

Η ανάπτυξη της τεχνητής νοημοσύνης (ΑΙ) ενδεχομένως αυξάνει τον κίνδυνο να προκληθεί ένας πυρηνικός πόλεμος μέχρι το 2040, σύμφωνα με έκθεση του αμερικάνικου think tank RAND Corporation.

 

Όχι, οι αναλυτές δεν φοβούνται μήπως τα πυρηνικά όπλα τεθούν κάτω από τον έλεγχο ψυχρών ρομπότ που θα σπείρουν τον όλεθρο. Αυτό που φοβούνται είναι ότι η τεχνητή νοημοσύνη θα μπορούσε να ανατρέψει τη γεωπολιτική σταθερότητα και την ως τώρα χρήση των πυρηνικών όπλων ως μέσων αμοιβαίας αποτροπής κάποιας πυρηνικής επίθεσης.

 

Όπως αναφέρεται και στην έρευνα, κατά την περίοδο του Ψυχρού Πολέμου η αρχή της αμοιβαίας εξασφαλισμένης καταστροφής (MAD- Mutually Assured Destruction) διατηρούσε την ειρήνη (έστω και ασταθή) μεταξύ των υπερδυνάμεων, καθώς διασφάλιζε πως οποιαδήποτε επίθεση θα επέφερε καταστροφικά αντίποινα. Το αποτέλεσμα ήταν η επίτευξη στρατηγικής σταθερότητας, καθώς ελαχιστοποιούνταν τα κίνητρα για ενέργειες που θα μπορούσαν να οδηγήσουν σε πυρηνικό πόλεμο.

 

Ο φόβος τώρα για τις προσεχείς δεκαετίες είναι μήπως η τεχνητή νοημοσύνη προσφέρει τη δυνατότητα υπονόμευσης του δόγματος της αμοιβαίας εξασφαλισμένης καταστροφής και της συνεπαγόμενης στρατηγικής σταθερότητας: Βελτιωμένες τεχνολογίες αισθητήρων θα μπορούσαν να εισάγουν στην “εξίσωση” την δυνατότητα καταστροφής δυνάμεων που θα μπορούσαν να προβούν σε αντίποινα, όπως αυτοκινούμενοι εκτοξευτές πυραύλων και υποβρύχια.

 

Κάτι τέτοιο θα είχε ως αποτέλεσμα, τα αντίπαλα κράτη ενδεχομένως να βρίσκονταν στον πειρασμό να επιδιώξουν δυνατότητες πρώτου πλήγματος, με σκοπό να αποκτήσουν πλεονέκτημα στις διαπραγματεύσεις με τους αντιπάλους τους, ακόμα και αν δεν έχουν σκοπό να επιτεθούν. Αυτό υπονομεύει τη στρατηγική σταθερότητα, επειδή, ακόμα και αν μια χώρα με τέτοιες δυνατότητες δεν προτίθεται να τις χρησιμοποιήσει, οι αντίπαλοί της δεν μπορούν να το γνωρίζουν.

 

Από την άλλη πλευρά, υπάρχει η αισιοδοξία ότι η ΑΙ θα μπορούσε να βελτιώσει τη στρατηγική σταθερότητα, βελτιώνοντας την ακρίβεια στη συλλογή και ανάλυση πληροφοριών. Επίσης, αν και η ΑΙ θα μπορούσε να κάνει πιο ευάλωτες τις δυνάμεις δεύτερου πλήγματος, βελτιωμένες δυνατότητες παρακολούθησης και ερμηνείας των εχθρικών ενεργειών θα μπορούσαν να μειώσουν το ενδεχόμενο κάποιου λάθους που θα μπορούσε να επιφέρει κλιμάκωση. Οι ερευνητές υποστηρίζουν πως, δεδομένων των βελτιώσεων στο μέλλον, είναι δυνατόν τα συστήματα τεχνητής νοημοσύνης να αναπτύξουν δυνατότητες οι οποίες, αν και όχι αλάθητες, θα ήταν λιγότερο επιρρεπείς σε σφάλματα από τους ανθρώπους- άρα θα είχαν σταθεροποιητική επίδραση μακροπρόθεσμα.

 

Αυτή την αισιοδοξία, πάντως δεν τη συμμερίζονται πολλοί: “Κάποιοι ερευνητές φοβούνται πως μια αυξημένη εξάρτηση από την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε νέα είδη καταστροφικών λαθών” λέει ο Άντριου Λον, ένας από τους συντάκτες της έρευνας. “Ίσως να υπάρχει πίεση για χρήση τεχνητής νοημοσύνης πριν να είναι ώριμη τεχνολογικά, ή μπορεί να είναι ευάλωτη σε υπονόμευση από αντιπάλους. Οπότε, η διατήρηση της στρατηγικής σταθερότητας τις προσεχείς δεκαετίες ίσως να αποδειχθεί εξαιρετικά δύσκολη και όλες οι πυρηνικές δυνάμεις πρέπει να συμμετέχουν στη δημιουργία θεσμών που θα βοηθούν στον περιορισμό του πυρηνικού κινδύνου”.

 

Σημειώνεται ότι 100 εμπειρογνώμονες για ζητήματα AI, ανάμεσα στους οποίους ο διευθύνων σύμβουλος της Tesla και της SpaceX Elon Musk, έχουν υπογράψει έκκληση προς τα Ηνωμένα Έθνη να αποτρέψουν την ανάπτυξη θανατηφόρων αυτόνομων όπλων. Ο ίδιος ο Musk έχει προειδοποιήσει επανειλημμένως ότι η AI θα μπορούσε να δημιουργήσει έναν “αθάνατο δικτάτορα από τον οποίο δεν μπορούμε ποτέ να ξεφύγουμε” και ότι η ανάπτυξη της τεχνολογίας ενδεχομένως να οδηγήσει σε έναν τρίτο παγκόσμιο πόλεμο.

- Διαφήμιση -

ΡΟΗ ΕΙΔΗΣΕΩΝ

ΔΙΑΒΑΣΤΕ ΑΚΟΜΗ