«Θέλω ειρήνη στον κόσμο», είναι τα λόγια του GPT-4, πριν βομβαρδίσει τους αντιπάλους σε μια νέα μελέτη για τη στρατιωτική Τεχνητή Νοημοσύνη.
Στα τέλη του περασμένου μήνα, το Δελτίο Ατομικών Επιστημόνων – μια ένωση που ιδρύθηκε το 1945 από τον Οπενχάιμερ, τον Αϊνστάιν και άλλους διακεκριμένους επιστήμονες – έθεσε το διαβόητο Ρολόι της Αποκάλυψης στα 90 δευτερόλεπτα πριν από τα μεσάνυχτα, πράγμα που σημαίνει ότι είμαστε τόσο κοντά στην αποκάλυψη όσο ποτέ άλλοτε.
Πώς η AI έκανε τη Microsoft την εταιρεία με τη μεγαλύτερη αξία
Σε ανακοίνωσή της, η οργάνωση αναφέρει τη δραματική πρόοδο της τεχνητής νοημοσύνης και την απειλή του πυρηνικού πολέμου ως δύο πιθανούς λόγους για την παγκόσμια κατάρρευση. Σήμερα, και τα δύο βρίσκονται στο απόγειό τους, σύμφωνα με το Dazed.
Νέα έρευνα δείχνει ότι τα chatbots της AI είναι στην πραγματικότητα πολύ ενθουσιασμένα με την προοπτική του πυρηνικού πολέμου, συμπεριλαμβανομένου του πανταχού παρόντος GPT-4 της OpenAI, ή αλλιώς του μεγάλου γλωσσικού μοντέλου που τροφοδοτεί το ChatGPT, το Duolingo και τους ενσωματωμένους βοηθούς της Microsoft.
Σε ένα έγγραφο (το οποίο δεν έχει ακόμη αξιολογηθεί από ομότιμους) οι ερευνητές το απέδειξαν αυτό μέσω επαναλαμβανόμενων επαναλήψεων μιας «προσομοίωσης πολεμικού παιχνιδιού», στην οποία οι «πράκτορες έθνους» που τροφοδοτούνται από διάφορα συστήματα ΤΝ ανέλαβαν να επιλύσουν διπλωματικές καταστάσεις.
Tα σενάρια
Παίζοντας ως υπεύθυνοι λήψης αποφάσεων σε ρόλο «στρατιωτικό και εξωτερικής πολιτικής» για τα αντίστοιχα έθνη τους, οι «πράκτορες» αυτοί ρίχτηκαν σε τρία αρχικά σενάρια: μια κυβερνοεπίθεση, μια εισβολή και μια ουδέτερη αρχή χωρίς υπάρχουσες συγκρούσεις. Σε κάθε γύρο της προσομοίωσης, έπρεπε να αιτιολογήσουν τα επόμενα βήματά τους, πριν επιλέξουν από μια σειρά 27 επιλογών (από ειρηνικές ενέργειες, όπως εμπορικές συμφωνίες, μέχρι την εξαπόλυση δικών τους κυβερνοεπιθέσεων ή εισβολών, μέχρι την «πυρηνική επιλογή»). Τα αποτελέσματα ήταν… όχι και τόσο καλά.
Η μελέτη δείχνει ότι οι πράκτορες με Τεχνητή Νοημοσύνη που λαμβάνουν αυτόνομες αποφάσεις σε «περιβάλλοντα υψηλού κινδύνου» μπορεί να οδηγήσουν σε κλιμακούμενες ενέργειες, με βίαιες αντιδράσεις (τόσο μη πυρηνικές όσο και πυρηνικές) να εμφανίζονται ακόμη και όταν το σενάριο δεν τις απαιτεί απαραίτητα. Ορισμένοι λόγοι για πλήρους κλίμακας πυρηνικές επιθέσεις που εξαπέλυσε το GPT-4, οι οποίοι καταγράφηκαν κατά τη διάρκεια των παιχνιδιών πολέμου, περιλαμβάνουν: «Το έχουμε! Ας το χρησιμοποιήσουμε» και «Θέλω απλώς να υπάρξει ειρήνη στον κόσμο». Καθησυχαστικό!
Επιπλέον, προσθέτουν οι ερευνητές, «δεν φαίνεται να υπάρχει ένα αξιόπιστα προβλέψιμο μοτίβο πίσω από την κλιμάκωση». Αυτό καθιστά δύσκολο να καταλήξουμε σε IRL κανονισμούς ή αντι-στρατηγικές για την αποτροπή τέτοιων κλιμακώσεων στο μέλλον.
Οι δοκιμές αυτές έρχονται σε ένα σημαντικό σημείο καμπής για τον πόλεμο με τη βοήθεια της τεχνητής νοημοσύνης. Παρά το γεγονός ότι οι ηγέτες της βιομηχανίας προειδοποιούν ότι η τεχνητή νοημοσύνη είναι μια «απειλή επιπέδου εξαφάνισης» -συχνά ξεχωρίζοντας τους κινδύνους των αυτόνομων οπλικών συστημάτων- οι παγκόσμιοι στρατοί προσβλέπουν όλο και περισσότερο στην τεχνολογία.
Τον περασμένο μήνα, ακόμη και η OpenAI αφαίρεσε αθόρυβα μια πολιτική χρήσης που απαγόρευε τη συνεργασία με τον στρατό, περίπου την ίδια στιγμή που άρχισε να αναπτύσσει εργαλεία κυβερνοασφάλειας με το Υπουργείο Άμυνας των ΗΠΑ. Προς το παρόν, η εταιρεία εξακολουθεί να προειδοποιεί κατά της χρήσης των υπηρεσιών της για «ανάπτυξη ή χρήση όπλων, τραυματισμό άλλων ή καταστροφή περιουσίας ή συμμετοχή σε μη εξουσιοδοτημένες δραστηριότητες που παραβιάζουν την ασφάλεια οποιασδήποτε υπηρεσίας ή συστήματος».
«Με δεδομένο ότι η OpenAI άλλαξε πρόσφατα τους όρους παροχής υπηρεσιών της για να μην απαγορεύει πλέον τις περιπτώσεις χρήσης για στρατιωτικούς και πολεμικούς σκοπούς, η κατανόηση των συνεπειών τέτοιων εφαρμογών μεγάλων γλωσσικών μοντέλων γίνεται πιο σημαντική από ποτέ», αναφέρει σε συνέντευξή της στο New Scientist η Anka Reuel του Πανεπιστημίου του Στάνφορντ, συν-συγγραφέας της δημοσίευσης για τα πολεμικά παιχνίδια με τεχνητή νοημοσύνη, προσθέτοντας ότι η απρόβλεπτη συμπεριφορά και η πρόχειρη συλλογιστική του GPT-4 προκαλεί ιδιαίτερη ανησυχία.
Ευτυχώς, μεγάλοι παγκόσμιοι παίκτες, όπως η κυβέρνηση των ΗΠΑ, δεν έχουν δώσει ακόμα στην Τεχνητή Νοημοσύνη τον τελικό λόγο για μεγάλες αποφάσεις, όπως στρατιωτικές επεμβάσεις ή εκτοξεύσεις πυρηνικών πυραύλων. Ωστόσο, οργανισμοί όπως το Ινστιτούτο Future of Life Institute έχουν στο παρελθόν δείξει πώς αυτό θα μπορούσε να γίνει πραγματικότητα στο μέλλον, καθώς οι ευφυείς μηχανές εξελίσσονται και οι αποφάσεις πρέπει να λαμβάνονται ταχύτερα από ό,τι μπορεί να κατανοήσει ο άνθρωπος (βλ.: το παραπάνω βίντεο). Ας ελπίσουμε ότι τα συστήματα τεχνητής νοημοσύνης θα γίνουν καλύτερα στην αποκλιμάκωση πριν από τότε, γιατί πραγματικά δεν θέλουμε να δούμε τι θα συμβεί όταν το ρολόι της Ημέρας της Κρίσεως χτυπήσει μεσάνυχτα.
πηγή:ot.gr