Οι δημιουργοί ενός επαναστατικού συστήματος τεχνητής νοημοσύνης (AI) που μπορεί να γράψει ιστορίες ειδήσεων και έργα μυθοπλασίας έκαναν το ασυνήθιστο βήμα να μην απελευθερώσουν δημόσια την έρευνά τους, με τον φόβο πιθανής κακόβουλης χρήσης του, καθώς το εργαλείο αυτό θα μπορούσε να χρησιμοποιηθεί για τη μαζική παραγωγή φαινομενικά αξιόπιστων “fake news”.
Η OpenAI, μια μη κερδοσκοπική ερευνητική εταιρεία που υποστηρίζεται από τον Elon Musk, τον Reid Hoffman, τον Sam Altman και άλλους, αναφέρει ότι το νέο μοντέλο της AI, με το όνομα GPT2, είναι τόσο καλό και ο κίνδυνος κακόβουλης χρήσης τόσο υψηλός ώστε να της απαγορεύει τη συνήθη πρακτική της παρουσίασης ολόκληρης της ερευνητικής δουλειάς στο κοινό, προκειμένου να δοθεί περισσότερος χρόνος για να συζητηθούν οι συνέπειες του τεχνολογικού επιτεύγματος.
Σύμφωνα με την OpenAI το σύστημά της είναι σε θέση να παράγει άρθρα με συνοχή, πάνω σε οποιοδήποτε θέμα, απαιτώντας μόνο μια σύντομη οδηγία. Η τεχνητή νοημοσύνη είναι «μη επιβλεπόμενη» (unsupervised), κάτι που σημαίνει πως δεν χρειάζεται «επανεκπαίδευση» για να μιλήσει για ένα διαφορετικό θέμα. Παράγει κείμενο χρησιμοποιώντας δεδομένα από περίπου οκτώ εκατομμύρια ιστοσελίδες. Για να «τροφοδοτήσει» το σύστημα, η ομάδα δημιούργησε μια νέα, αυτοματοποιημένη μέθοδο εντοπισμού «ποιοτικού» περιεχομένου στο Ίντερνετ.
Στον πυρήνα του, το GPT2 είναι μια γεννήτρια κειμένου. Το σύστημα AI τροφοδοτείται με κείμενο, οτιδήποτε από λίγες λέξεις μέχρι ολόκληρη τη σελίδα και ζητείται να γράψει τις επόμενες προτάσεις που βασίζονται στις προβλέψεις του για το τι θα ακολουθήσει. Το σύστημα πιέζει τα όρια του τι θεωρείται εφικτό, τόσο από την άποψη της ποιότητας της παραγωγής όσο και από την ευρεία ποικιλία πιθανών χρήσεων.
Όταν χρησιμοποιείται για να παράγει απλά νέο κείμενο, το GPT2 είναι σε θέση να γράφει εύλογα αποσπάσματα που ταιριάζουν με αυτά που δίνονται τόσο σε στυλ όσο και σε θέμα. Σπανίως παρουσιάζει κάποιες από τις ιδιορρυθμίες που χαρακτηρίζουν τα προηγούμενα συστήματα AI, όπως το να ξεχνά το θέμα περίπου στο μισό μιας παραγράφου ή να μαντεύει τη σύνταξη των μακρών προτάσεων. Το κείμενο που προκύπτει συχνά έχει συνοχή, αλλά σπάνια λέει αλήθεια- όλες οι παραπομπές και οι αναφορές που περιλαμβάνει είναι φτιαχτές, αν και κάποιες φορές το σύστημα παράγει κείμενα που δεν βγάζουν νόημα δομικά- ή περιλαμβάνουν ακόμα και αστείες ανακρίβειες.
Ωστόσο, τα αναβαθμισμένα ποιοτικά χαρακτηριστικά του GPT2 έχουν οδηγήσει την OpenAI να το κρατήσει μακρυά από τα μάτια του κοινού για το άμεσο μέλλον, ενώ εκτιμά τις συνέπειες από πιθανή κακόβουλη χρήση του. “Πρέπει να εκτελέσουμε πειραματισμούς για να μάθουμε τι μπορούν και δεν μπορούν να κάνουν”, δήλωσε ο Jack Clark, στέλεχος της εταιρείας, αναφερόμενος σε άτομα που μπορούν να το χρησιμοποιήσουν για κακόβουλους σκοπούς. Για να δείξει τι σημαίνει αυτό, η OpenAI έκανε μια έκδοση του GPT2 με λίγες μικρές τροποποιήσεις που μπορούν να χρησιμοποιηθούν για τη δημιουργία άπειρων θετικών ή αρνητικών κριτικών των προϊόντων. Τα ανεπιθύμητα μηνύματα (spam) και οι ψεύτικες ειδήσεις (fake news) είναι δύο άλλα προφανή δυνητικά μειονεκτήματα, όπως και η αφιλτράριστη φύση του λογισμικού AI: Καθώς αυτό-εκπαιδεύεται στο διαδίκτυο, δεν είναι δύσκολο να ενθαρρυνθεί να δημιουργήσει μισαλλόδοξο κείμενο, θεωρίες συνωμοσίας και ούτω καθεξής.
Όπως σημειώνει το BBC πάντως, η OpenAI δεν έχει την καλύτερη φήμη στον χώρο της τεχνητής νοημοσύνης, καθώς πολλοί θεωρούν πως έχει πολλά χρήματα, τα οποία χρησιμοποιούνται σε σκοπούς άνευ πραγματικής ουσίας, ενώ άλλοι θεωρούν πως οι προσπάθειες που καταβάλλει στον «στίβο» της δημοσιότητας βλάπτουν την εικόνα των ακαδημαϊκώμ. Παρ’ όλα αυτά, επί της προκειμένης κάποιοι εξέλαβαν θετικά το ότι ερευνητές πάνω στην τεχνητή νοημοσύνη εξετάζουν τις επιπτώσεις της χρήσης της τεχνολογίας τους.