H δημιουργία εικόνων από προγράμματα τεχνητής νοημοσύνης εγείρει ερωτήματα για τους κινδύνους που ελλοχεύουν και τα ηθικά ζητήματα που τίθενται. Οι ειδικοί προειδοποιούν ότι οι διαφορές ανάμεσα στις πραγματικές εικόνες και τα δημιουργήματα αλγορίθμων θα γίνονται ολοένα και πιο δυσδιάκριτες.
«Τα προγράμματα εκτελούν τις εντολές του χρήστη. Το πώς θα χρησιμοποιηθούν επαφίεται στο χέρι που τα χειρίζεται», σημειώνει ο ερευνητής του Αστεροσκοπείου Αθηνών Μάνος Σαριδάκης, ενώ παράλληλα ο fact checker Θεόφιλος Μπλουδάνης επισημαίνει σε ποιο πεδίο γεννιούνται τα ηθικά ερωτήματα: «Οι δημιουργοί αναφέρουν ότι πρόκειται για εικόνες τεχνητής νοημοσύνης, καθώς και τους λόγους για τους οποίους τις έφτιαξαν.
Ωστόσο, στη συνέχεια άλλοι χρήστες τις χρησιμοποιούν ως πραγματικές και έτσι γίνεται μία απόπειρα παραπλάνησης». Χαρακτηριστικό είναι το παράδειγμα των Deepfakes, δηλαδή των συνθετικών εικόνων και άλλων μέσων (ήχος, βίντεο) που αντικαθιστούν το πρόσωπο ενός ανθρώπου με αυτό ενός άλλου, και που μπορούν να οδηγήσουν σε αποπροσανατολιστικό και παραπλανητικό περιεχόμενο. «Μια Deepfake φωτογραφία μπορεί να χρησιμοποιηθεί για τη δημιουργία και διασπορά ψευδών ειδήσεων για την επιδίωξη πολιτικών ή άλλων στόχων», εξηγεί ο Σταύρος Καπερώνης, του Τμήματος Επικοινωνίας, Μέσων και Πολιτισμού του Παντείου Πανεπιστημίου και απαριθμεί τους κινδύνους που παραμονεύουν: «Η χρήση τέτοιων προγραμμάτων ενδέχεται να οδηγήσει στη συλλογή και την κατάχρηση προσωπικών δεδομένων. Επίσης, τα προγράμματα αυτά μπορούν να χρησιμοποιηθούν για τη δημιουργία επικίνδυνου περιεχομένου, όπως πορνογραφικό υλικό με πρόσωπα που δεν έχουν δώσει τη συγκατάθεσή τους».
Σύμφωνα με τον ίδιο, υπάρχει κίνδυνος για παραβίαση της ιδιωτικότητας και καταπάτηση βασικών ανθρωπίνων δικαιωμάτων: «Πολλά από αυτά τα προγράμματα χρησιμοποιούνται για τη δημιουργία πλαστών εικόνων προσώπων, που μπορεί να οδηγήσει σε διαδικτυακό εκφοβισμό». Επιπλέον, η χρήση τέτοιων προγραμμάτων μπορεί να έχει αντίκτυπο στην αξιοπιστία και την εγκυρότητα της δημοσιογραφίας.
Το πρόβλημα είναι οι άνθρωποι, όχι οι μηχανές
Οταν κάποτε ρώτησαν τον Στίβεν Χόκινγκ αν απειλείται η ανθρώπινη ζωή από την έγερση των μηχανών, εκείνος απάντησε: «Αν οι μηχανές παράγουν όλα όσα χρειαζόμαστε, το αποτέλεσμα εξαρτάται από το πώς αυτά θα διανέμονται στους ανθρώπους». Στη συγκεκριμένη περίπτωση, εξαρτάται από το ποιος χειρίζεται τα ψηφιακά εργαλεία που επιτρέπουν την κατασκευή αληθοφανών εικόνων. «Η ηθική δεν ορίζεται με τον ίδιο τρόπο από όλους, αλλά ακόμα κι αν γινόταν κάτι τέτοιο, πάλι θα ήταν αδύνατο να ελεγχθεί», προειδοποιεί ο Μάνος Σαριδάκης και επισημαίνει ότι ούτε νομικός φραγμός υπάρχει: «Ακόμη κι αν θεσπιστούν νόμοι για την τεχνητή νοημοσύνη σε μια χώρα, θα υπάρχει κενό σε κάποια άλλη. Εχει σημασία πώς θα διαχειριστούμε την τεχνολογία ως ανθρωπότητα».
Δηλαδή, το ζήτημα δεν έχει να κάνει με τις νομικές εγγυήσεις που θα εξασφαλίζουν την ηθική χρήση της τεχνολογίας, αλλά πολύ περισσότερο με τη συλλογική μας απόφαση να χρησιμοποιήσουμε αυτές τις τεχνολογίες με όρους πραγματικής κοινωνικής προόδου.