Σε μια εποχή όπου η τεχνητή νοημοσύνη μιμείται όλο και πιο λεπτομερώς την πραγματικότητα, είτε μέσα από φωτογραφίες, είτε μέσα από βίντεο και ηχογραφήσεις, η αλήθεια καθίσταται συνεχώς δυσκολότερη να διακριθεί. Πώς μπορούμε να την εντοπίσουμε;
“Οι ειδικοί φοβούνται ότι η τεχνολογία θα μπορούσε να επιταχύνει τη διάβρωση της εμπιστοσύνης στα μέσα ενημέρωσης, στην κυβέρνηση και στην κοινωνία. Αν οποιαδήποτε εικόνα μπορεί να κατασκευαστεί -και να χειραγωγηθεί- πώς μπορούμε να πιστέψουμε οτιδήποτε βλέπουμε;” αναφέρουν σε άρθρο τους στους New York Times, οι Tiffany Hsu και Steven Lee Myers. Η αλήθεια είναι ότι γκουγκλάροντας απλά τον όρο AI, τα περισσότερα άρθρα που εμφανίζονται ανοίγουν συζητήσεις γύρω από το πώς το AI λειτουργεί υπέρ μας, ή πώς θα κλέψει τις δουλείες μας στο μέλλον. Με μια πιο ψύχραιμη δεύτερη ματιά μπορούμε να κοιτάξουμε την τεχνητή νοημοσύνη ως ένα εργαλείο που ναι μεν μπορεί να προσδώσει στην καθημερινότητά μας πολλά θετικά, απλοποιώντας την, αλλά που ταυτόχρονα μπορεί να λειτουργήσει ελεγκτικά και παραπλανητικά απέναντι στις μάζες. Ας ξεκινήσουμε όμως από την αρχή:
Τι είναι η τεχνητή νοημοσύνη;
Όταν οι περισσότεροι άνθρωποι ακούν τον όρο τεχνητή νοημοσύνη, το πρώτο πράγμα που σκέφτονται συνήθως είναι τα ρομπότ. Στην πραγματικότητα η τεχνητή νοημοσύνη, AI, αναφέρεται στην τεχνολογία που προσομοιώνει την ανθρώπινη νοημοσύνη, με τις λειτουργίες της να είναι κωδικοποιημένες σε λογισμικό. Στις μέρες μας ο κώδικας αυτός είναι ενσωματωμένος σε πολλές διαδικτυακές δραστηριότητές μας, από εφαρμογές που βασίζονται στο cloud, σε επιχειρήσεις και μέχρι σε εφαρμογές που βρίσκουμε στην κινητή μας συσκευή smartphone.
Το έτος 2022 έφερε την τεχνητή νοημοσύνη στο επίκεντρο των συζητήσεων όλων μας, αφού εξοικείωσε το κοινό με τις εφαρμογές του Generative Pre-Training Transformer, με την πιο δημοφιλή να είναι το ChatGPT του OpenAI. Η διαδεδομένη και αυξανόμενη γοητεία του ChatGPT το έκανε συνώνυμο του AI στο μυαλό των περισσότερων καταναλωτών. Ωστόσο, αντιπροσωπεύει μόνο ένα μικρό μέρος των τρόπων με τους οποίους χρησιμοποιείται σήμερα η τεχνολογία της τεχνητής νοημοσύνης. Ως εργαλείο οι εφαρμογές της είναι ατελείωτες. Από την υγειονομική περίθαλψη, για την υπόδειξη δοσολογιών φαρμάκων, τον εντοπισμό θεραπειών και τη βοήθεια σε χειρουργικές επεμβάσεις, έως τα αυτοκινούμενα αυτοκίνητα και την θωράκιση απέναντι στις χρηματοπιστωτικές απάτες. Σήμερα βέβαια, αν και το μέλλον δεν είναι μακριά, η τεχνητή νοημοσύνη έχει εισχωρήσει, όσο παράλληλα αναπτύσσεται, σε τομείς όπως η μουσική, η τέχνη, η τεχνολογία – με τα chatbots και το ChatGPT να αυξάνουν την δημοτικότητά της, η γλώσσα και τα οχήματα.
Πώς η Τεχνητή Νοημοσύνη αναδιαμορφώνει τον κόσμο μας
Συνεχώς βλέπουμε εικόνες, φωτογραφίες, βίντεο ακόμα και ηχογραφήσεις ανθρώπων να κυκλοφορούν στο διαδίκτυο, αλλά που τελικά είναι δημιουργήματα της τεχνητής νοημοσύνης. Την περασμένη εβδομάδα μάλιστα, μια σειρά από νέες εικόνες τεχνητής νοημοσύνης έδειξαν τον Πάπα να απολαμβάνει ένα μεγάλο ποτήρι μπύρα. Τα χέρια φαίνονταν ως επί το πλείστον φυσιολογικά – εκτός από τη βέρα στο παράμεσο του. Αυτό ήταν το μόνο σημείο της φωτογραφίας που έδειχνε ότι η εικόνα ήταν δημιουργημένη από τεχνητή νοημοσύνη.
Τα ελαττώματα των εικόνων ήταν κάποτε προάγγελοι της πλαστογραφίας ή των συνθετικών εικόνων, όμως η συνεχής πρόοδος τα εξαλείφει, καθιστώντας τα δημιουργήματα της AI πιο δύσκολο να διακριθούν. Πλέον μάλιστα τα όρια μεταξύ πραγματικότητας και ψέματος είναι τόσο θολά, ώστε να μην γίνονται αμέσως αντιληπτά και το πλασματικό να μιμείται σχεδόν ατόφια το ήδη υπάρχον. Οι επιπτώσεις των παραπάνω εκτείνονται από τα επαγγέλματα έως την εμπιστοσύνη ως αξία.
Για χρόνια, οι εμπειρογνώμονες ανέμεναν ότι τα ρομπότ με τεχνητή νοημοσύνη θα αντικαθιστούσαν κυρίως θέσεις εργασίας χαμηλής ειδίκευσης. Οι εργασίες που απαιτούσαν πολλή ανθρώπινη δημιουργικότητα ή γνώση θεωρούνταν σχετικά ασφαλείς. Αυτό δεν ισχύει πλέον: η νέα γενιά συστημάτων “γεννητικής τεχνητής νοημοσύνης”, όπως τα ChatGPT, LaMDA ή Midjourney, μπορεί να δημιουργήσει πειστικό κείμενο, κώδικα ή εικόνες από το μηδέν.
Η άνοδος της τεχνολογίας που είναι ικανή να παράγει πειστικό ψεύτικο περιεχόμενο όμως εγείρει επίσης περισσότερες, ακόμη πιο σκοτεινές ανησυχίες. Καθώς γίνεται όλο και πιο δύσκολο να διακρίνουμε τι είναι αληθινό και τι ψεύτικο, οι ειδικοί ανησυχούν ότι κακόβουλοι φορείς θα μπορούσαν να χρησιμοποιήσουν αυτή την τεχνολογία για να ενισχύσουν την παραπληροφόρηση στο διαδίκτυο. Ο ίδιος ο Σαμ Άλτμαν, διευθύνων σύμβουλος της τεχνολογικής εταιρείας OpenAI, έχει προειδοποιήσει ότι η τεχνητή νοημοσύνη “θα μπορούσε να χρησιμοποιηθεί για παραπληροφόρηση μεγάλης κλίμακας”. Ο επιστήμονας πληροφορικής Roos επανέλαβε αυτές τις ανησυχίες, σημειώνοντας ότι επί του παρόντος, η παραπληροφόρηση παράγεται κυρίως από ανθρώπους που εργάζονται σε “εργοστάσια τρολ”, οι οποίοι δημιουργούν και διαδίδουν ψευδείς πληροφορίες και παρεμβαίνουν στις διαδικτυακές συζητήσεις στα μέσα κοινωνικής δικτύωσης. “Εάν, και όταν, αυτό μπορεί να αυτοματοποιηθεί σε μαζική κλίμακα, αυτό εγείρει ένα εντελώς νέο επίπεδο ανησυχίας”, δήλωσε στην Deutsche Welle.
Οι κυβερνήσεις και οι εταιρείες χρησιμοποιούν επίσης όλο και περισσότερο την τεχνητή νοημοσύνη για την αυτοματοποίηση διαδικασιών λήψης αποφάσεων – συμπεριλαμβανομένων εκείνων με δυνητικά καθοριστικές για τη ζωή συνέπειες, όπως η απόφαση για το ποιος θα πάρει δουλειά, ποιος θα δικαιούται κοινωνικές παροχές ή ποιος θα αποφυλακιστεί πρόωρα από τη φυλακή. Σε αντίθεση με τους ανθρώπους όμως, η τεχνητή νοημοσύνη δεν προσαρμόζει τη συμπεριφορά της με βάση το πώς γίνεται αντιληπτή από τους άλλους ή τηρώντας ηθικά πρότυπα. Η διαδικασία λήψης αποφάσεων της βασίζεται σε ένα αμετάβλητο μοντέλο, χωρίς να επηρεάζεται από τις δυναμικές, διαφοροποιημένες κοινωνικές αλληλεπιδράσεις που επηρεάζουν συνεχώς την ανθρώπινη συμπεριφορά. Οι ερευνητές εργάζονται για τον προγραμματισμό της τεχνητής νοημοσύνης ώστε να συμπεριλάβει την ηθική, αλλά αυτό αποδεικνύεται πρόκληση.
Η Celina Bottino, διευθύντρια έργου στο Ινστιτούτο Τεχνολογίας και Κοινωνίας στο Ρίο ντε Τζανέιρο, προειδοποίησε με δήλωσή της στην Deutsche Welle, ότι “αυτός είναι ένας τομέας όπου πρέπει να είμαστε ιδιαίτερα προσεκτικοί και να χρησιμοποιούμε την AI (Artificial Intelligence) με υπευθυνότητα”. Τα σημερινά συστήματα τεχνητής νοημοσύνης αναλύουν τεράστιες ποσότητες για να κάνουν προβλέψεις. Αυτό τα καθιστά πολύ αποτελεσματικά σε ορισμένους τομείς. Αλλά μελέτες έχουν επίσης δείξει ότι είναι επιρρεπή στο να αναπαράγουν ή να επιδεινώνουν τις υπάρχουσες προκαταλήψεις και διακρίσεις, αν αφεθούν ανεξέλεγκτα.
Εμπιστοσύνη στην Τεχνητή Νοημοσύνη
Καθώς το περιεχόμενο που παράγεται από τεχνητή νοημοσύνη συνεχίζει να αναδιαμορφώνει την ψηφιακή μας πραγματικότητα, για να μετριαστούν οι κίνδυνοι που συνδέονται με αυτά τα συνθετικά μέσα και να διατηρηθεί η ακεραιότητα του ψηφιακού πεδίου, είναι ζωτικής σημασίας για τα άτομα, τους οργανισμούς και τις κυβερνήσεις να αναπτύξουν στρατηγικές και εργαλεία που προωθούν τη διαφάνεια, την αυθεντικοποίηση και την ικανότητα χρήσης τεχνητής νοημοσύνης. Μερικά από τα πιθανά μέτρα που θα μπορούσαμε να θέσουμε σε εφαρμογή περιλαμβάνουν:
• Την ενθάρρυνση της κριτικής σκέψης μπορεί να βοηθήσει τα άτομα να διακρίνουν καλύτερα την αυθεντικότητα του περιεχομένου που καταναλώνουν και να μειώσουν τον αντίκτυπο της παραπληροφόρησης. Το ίδιο και η περαιτέρω εκμάθηση κανόνων δεοντολογίας στα μέσα μαζικής ενημέρωσης.
• Η ανάπτυξη τεχνολογιών που μπορούν να ανιχνεύσουν και να επαληθεύσουν την προέλευση του ψηφιακού περιεχομένου, όπως η υδατογράφηση, μπορεί να συμβάλει στη διαπίστωση της αυθεντικότητας των μέσων ενημέρωσης και να μετριάσει τις επιπτώσεις του περιεχομένου που παράγεται με τεχνητή νοημοσύνη.
• Η θέσπιση ηθικών κατευθυντήριων γραμμών και κανονισμών για την ανάπτυξη και τη χρήση περιεχομένου που παράγεται από τεχνητή νοημοσύνη μπορεί να βοηθήσει στην αποτροπή της κακής χρήσης του για κακόβουλους σκοπούς. Οι ΗΠΑ, το Ηνωμένο Βασίλειο και η ΕΕ έχουν εκδώσει αντίστοιχα εγχειρίδια κανόνων και νομοθεσίας, αλλά κινούνται πιο αργά από ό,τι εξελίσσεται η τεχνολογία.
• Η ενθάρρυνση της συνεργασίας μεταξύ των προγραμματιστών τεχνολογίας, των φορέων χάραξης πολιτικής και άλλων ενδιαφερόμενων μερών μπορεί να προωθήσει μια πιο υπεύθυνη προσέγγιση για το περιεχόμενο που παράγεται από τεχνητή νοημοσύνη και να διασφαλίσει ότι τα δυνητικά οφέλη του θα αξιοποιηθούν με παράλληλη ελαχιστοποίηση των κινδύνων.