LOADING

Type to search

A.I News Featured ΝΕΑ

Τεχνητή Νοημοσύνη: Παγκόσμια Απειλή στις Εκλογές

Avatar
Share

Η τεχνητή νοημοσύνη ενισχύει την απειλή της εκλογικής παραπληροφόρησης παγκοσμίως, καθιστώντας εύκολη τη δημιουργία ψεύτικου αλλά πειστικού περιεχομένου με στόχο την εξαπάτηση των ψηφοφόρων από οποιονδήποτε διαθέτει ένα smartphone και μια δόλια φαντασία.

Μερικά χρόνια πριν η δημιουργία ψεύτικων φωτογραφιών, βίντεο ή ηχητικών κλιπ απαιτούσε ομάδες ανθρώπων με χρόνο, τεχνικές δεξιότητες και χρήματα. Τώρα, χρησιμοποιώντας δωρεάν και χαμηλού κόστους υπηρεσίες δημιουργικής τεχνητής νοημοσύνης από εταιρείες όπως η Google και η OpenAI, ο καθένας μπορεί να δημιουργήσει υψηλής ποιότητας “deepfakes” με μια απλή προτροπή κειμένου.

Τα social media πλημμυρίζουν με AI deepfakes που σχετίζονται με εκλογές στην Ευρώπη και την Ασία εδώ και μήνες, λειτουργώντας ως προειδοποίηση για περισσότερες από 50 χώρες που οδηγούνται στις κάλπες φέτος.

Δεν χρειάζεται να κοιτάξετε μακριά για να δείτε μερικούς ανθρώπους … να είναι σαφώς μπερδεμένοι ως προς το αν κάτι είναι αληθινό ή όχι“, δήλωσε ο Henry Ajder, κορυφαίος εμπειρογνώμονας στη γενετική τεχνητή νοημοσύνη με έδρα το Cambridge της Αγγλίας.

Το ερώτημα δεν είναι πλέον αν οι βαθιές απομιμήσεις της AI θα μπορούσαν να επηρεάσουν τις εκλογές, αλλά πόσο μεγάλη επιρροή θα έχουν, δήλωσε ο Ajder, ο οποίος διευθύνει μια εταιρεία συμβούλων που ονομάζεται Latent Space Advisory. Καθώς ο προεδρικός αγώνας στις ΗΠΑ θερμαίνεται, ο διευθυντής του FBI Κρίστοφερ Ρέι προειδοποίησε πρόσφατα για την αυξανόμενη απειλή, λέγοντας ότι το ΑΙ καθιστά εύκολο για ξένους αντιπάλους να ασκούν κακόβουλη επιρροή.

Με τα AI deepfakes, η εικόνα ενός υποψηφίου μπορεί να αλλοιωθεί. Οι ψηφοφόροι μπορούν να κατευθυνθούν προς ή μακριά από τους υποψηφίους – ή ακόμη και να αποφύγουν εντελώς τις κάλπες. Αλλά ίσως η μεγαλύτερη απειλή για τη δημοκρατία, λένε οι ειδικοί, είναι ότι ένα κύμα από AI deepfakes θα μπορούσε να διαβρώσει την εμπιστοσύνη του κοινού σε αυτά που βλέπει και ακούει.

Μερικά πρόσφατα παραδείγματα περιλαμβάνουν:

  • Ένα βίντεο με τη φιλοδυτική πρόεδρο της Μολδαβίας να υποστηρίζει ένα πολιτικό κόμμα φιλικό προς τη Ρωσία.
  • Ηχητικά αποσπάσματα του ηγέτη του φιλελεύθερου κόμματος της Σλοβακίας που συζητά για νοθεία ψήφων και αύξηση της τιμής της μπύρας.
  • Ένα βίντεο με έναν νομοθέτη της αντιπολίτευσης στο Μπαγκλαντές – ένα συντηρητικό κράτος με μουσουλμανική πλειοψηφία – να φοράει μπικίνι.

Η καινοτομία και η πολυπλοκότητα της τεχνολογίας καθιστούν δύσκολο να εντοπιστεί ποιος βρίσκεται πίσω από τα AI deepfakes. Οι ειδικοί λένε ότι οι κυβερνήσεις και οι εταιρείες δεν είναι ακόμη σε θέση να σταματήσουν τον κατακλυσμό, ούτε κινούνται αρκετά γρήγορα για να λύσουν το πρόβλημα. Ορισμένα AI deepfakes έχουν ως στόχο να σπείρουν αμφιβολίες σχετικά με την αφοσίωση των υποψηφίων.

ΘΟΛΗ ΠΡΑΓΜΑΤΙΚΟΤΗΤΑ

Τα deepfakes που αφορούν μόνο τον ήχο είναι ιδιαίτερα δύσκολο να επαληθευτούν, επειδή, σε αντίθεση με τις φωτογραφίες και τα βίντεο, δεν έχουν αποκαλυπτικά σημάδια χειραγωγημένου περιεχομένου. Είναι κατανοητό ότι οι ψηφοφόροι μπορεί να πέσουν στην παγίδα της εξαπάτησης, δήλωσε ο Ajder, επειδή οι άνθρωποι είναι “πολύ περισσότερο συνηθισμένοι να κρίνουν με τα μάτια παρά με τα αυτιά μας”.

Στις φτωχότερες χώρες, όπου η παιδεία στα μέσα μαζικής ενημέρωσης υστερεί, ακόμη και οι χαμηλής ποιότητας απομιμήσεις ΤΝ μπορούν να είναι αποτελεσματικές. Οι ειδικοί ανησυχούν ιδιαίτερα για τις επερχόμενες εκλογές στην Ινδία, τη μεγαλύτερη δημοκρατία του κόσμου, όπου οι πλατφόρμες των μέσων κοινωνικής δικτύωσης αποτελούν πρόσφορο έδαφος για παραπληροφόρηση.

ΜΙΑ ΠΡΟΚΛΗΣΗ ΓΙΑ ΤΗ ΔΗΜΟΚΡΑΤΊΑ

Ορισμένες πολιτικές καμπάνιες χρησιμοποιούν το ΑΙ για να ενισχύσουν την εικόνα του υποψηφίου τους. Καθώς οι τύποι των AI deepfakes πολλαπλασιάζονται, οι αρχές σε όλο τον κόσμο προσπαθούν να βρουν τρόπους αντιμετώπισης. Η Ευρωπαϊκή Ένωση απαιτεί ήδη από τις πλατφόρμες κοινωνικής δικτύωσης να περιορίζουν τον κίνδυνο διάδοσης παραπληροφόρησης ή “εκλογικής χειραγώγησης”. Θα επιβάλει την ειδική επισήμανση των AI deepfakes από το επόμενο έτος, πολύ αργά για τις κοινοβουλευτικές εκλογές της ΕΕ τον Ιούνιο. Παρόλα αυτά, ο υπόλοιπος κόσμος είναι πολύ πιο πίσω.

Οι μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο υπέγραψαν πρόσφατα -και εθελοντικά- ένα σύμφωνο για να αποτρέψουν τα εργαλεία τεχνητής νοημοσύνης από το να διαταράσσουν τις εκλογές. Για παράδειγμα, η εταιρεία στην οποία ανήκουν το Instagram και το Facebook δήλωσε ότι θα αρχίσει να επισημαίνει τα deepfakes που εμφανίζονται στις πλατφόρμες της. Ορισμένοι εμπειρογνώμονες ανησυχούν ότι οι προσπάθειες για τον περιορισμό των AI deepfakes θα μπορούσαν να έχουν απρόβλεπτες συνέπειες.

Καλοπροαίρετες κυβερνήσεις ή εταιρείες θα μπορούσαν να καταπατήσουν την ενίοτε “πολύ λεπτή” γραμμή μεταξύ του πολιτικού σχολιασμού και μιας “παράνομης προσπάθειας σπίλωσης ενός υποψηφίου”, δήλωσε ο Tim Harper, ανώτερος αναλυτής πολιτικής στο Κέντρο για τη Δημοκρατία και την Τεχνολογία στην Ουάσιγκτον. Οι μεγάλες υπηρεσίες δημιουργικής τεχνητής νοημοσύνης διαθέτουν κανόνες για τον περιορισμό της πολιτικής παραπληροφόρησης. Αλλά οι ειδικοί λένε ότι παραμένει πολύ εύκολο να ξεγελάσει κανείς τους περιορισμούς των πλατφορμών ή να χρησιμοποιήσει εναλλακτικές υπηρεσίες που δεν έχουν τις ίδιες διασφαλίσεις.

Ακόμη και χωρίς κακές προθέσεις, η αυξανόμενη χρήση της ΤΝ είναι προβληματική. Πολλά δημοφιλή chatbots με τεχνητή νοημοσύνη εξακολουθούν να εκτοξεύουν ψευδείς και παραπλανητικές πληροφορίες που απειλούν να στερήσουν τα δικαιώματα των ψηφοφόρων. Και το λογισμικό δεν είναι η μόνη απειλή. Οι υποψήφιοι θα μπορούσαν να προσπαθήσουν να εξαπατήσουν τους ψηφοφόρους ισχυριζόμενοι ότι τα πραγματικά γεγονότα που τους παρουσιάζουν κατασκευάστηκαν από την ΤΝ.

Ένας κόσμος στον οποίο τα πάντα είναι ύποπτα -και έτσι ο καθένας μπορεί να επιλέξει τι πιστεύει- είναι επίσης ένας κόσμος που αποτελεί πραγματική πρόκληση για μια ακμάζουσα δημοκρατία“, δήλωσε η Lisa Reppell, ερευνήτρια στο Διεθνές Ίδρυμα Εκλογικών Συστημάτων στο Άρλινγκτον της Βιρτζίνια.

πηγή

Tags:

You Might also Like