Home Τεχνολογία Algospeak: η μυστική διάλεκτος των social media – η αλλιώς πως να...

Algospeak: η μυστική διάλεκτος των social media – η αλλιώς πως να ξεγελάσεις τον αλγόριθμο

Ξέρατε ότι, σύμφωνα με πολλούς χρήστες, υπάρχει μια μυστική λίστα λέξεων που δεν επιτρέπεται να χρησιμοποιούνται στα social media; Τουλάχιστον, αυτή είναι η εντύπωση που κυκλοφορεί ευρέως.

Ίσως το έχετε παρατηρήσει και εσείς: η λέξη «unalived» αντικαθιστά το «killed», τα όπλα γίνονται «pew pews» και οι συναινούντες ενήλικες «κάνουν seggs».
Οι ίδιοι οι χρήστες παραδέχονται ότι αυτές οι διατυπώσεις ακούγονται γελοίες, αλλά πολλοί πιστεύουν πως δεν έχουν άλλη επιλογή.

Αυτή η κωδικοποιημένη γλώσσα, γνωστή ως algospeak, έχει εμφανιστεί ως τρόπος παράκαμψης της αλγοριθμικής λογοκρισίας.
Η βασική ιδέα είναι ότι οι πλατφόρμες κοινωνικής δικτύωσης περιορίζουν περιεχόμενο που περιέχει συγκεκριμένες λέξεις ή φράσεις – είτε για να διατηρούν «καθαρά» τα feeds για τους διαφημιζόμενους είτε για να προωθούν πιο διακριτικά ορισμένες πολιτικές ατζέντες.

Λένε την αλήθεια οι εταιρείες;

Οι μεγάλες τεχνολογικές πλατφόρμες αρνούνται κατηγορηματικά αυτή την αντίληψη.

Ο εκπρόσωπος του YouTube, Boot Bullwinkle, εξήγησε στο BBC:
«Το YouTube δεν έχει λίστα απαγορευμένων ή περιορισμένων λέξεων… Οι πολιτικές μας αντικατοπτρίζουν την πεποίθησή μας ότι το πλαίσιο έχει σημασία και ότι οι λέξεις μπορεί να έχουν διαφορετικές σημασίες και προθέσεις».

Η Meta και το TikTok υιοθετούν την ίδια γραμμή, χαρακτηρίζοντας την ιδέα μιας “μαύρης λίστας λέξεων” μύθο.

Ωστόσο, η πραγματικότητα αποδεικνύεται πολύ πιο σύνθετη.

Ιστορικά παραδείγματα δείχνουν ότι οι πλατφόρμες έχουν όντως χειραγωγήσει διακριτικά το ποιο περιεχόμενο προωθείται και ποιο «θάβεται», ακόμη και αν αυτό δεν βασίζεται σε μεμονωμένες λέξεις.

Το πρόβλημα είναι ότι οι χρήστες σπάνια γνωρίζουν γιατί μια ανάρτηση έχει χαμηλή απήχηση:
φταίει κάποια «ύποπτη» λέξη που εντόπισε ο αλγόριθμος ή απλώς το περιεχόμενο δεν άρεσε στο κοινό;

Αυτή η ασάφεια έχει οδηγήσει σε γενικευμένη αυτολογοκρισία, σε αστείες κωδικοποιημένες φράσεις και, σε ορισμένες περιπτώσεις, σε πλήρη αποφυγή ευαίσθητων θεμάτων.

Όταν η γλώσσα των αλγορίθμων μπαίνει στην καθημερινότητα

Ο δημιουργός περιεχομένου Alex Pearlman, με εκατομμύρια ακόλουθους σε TikTok, Instagram και YouTube, έχει βιώσει προσωπικά τις συνέπειες της αλγοριθμικής διαμεσολάβησης.

Όπως λέει:
«Αρχικά, μόνο στο TikTok, αποφεύγω να λέω τη λέξη “YouTube”. Αν πω “πηγαίνετε στο κανάλι μου στο YouTube”, το βίντεο δεν θα πάει καλά».

Η εμπειρία του υποδηλώνει ότι το TikTok ίσως «τιμωρεί» περιεχόμενο που στέλνει κοινό σε ανταγωνιστικές πλατφόρμες – κάτι που, φυσικά, η εταιρεία αρνείται.

Οι παρατηρήσεις του Pearlman δεν περιορίζονται εκεί.
Τον Αύγουστο του 2024, βίντεό του για τον Τζέφρι Έπσταϊν αφαιρέθηκαν ξαφνικά από το TikTok, ενώ παρέμειναν κανονικά διαθέσιμα στο Instagram και το YouTube. Χωρίς σαφή εξήγηση για το ποιον κανόνα παραβίασε, είδε τις ενστάσεις του να απορρίπτονται και τον λογαριασμό του να δέχεται «προειδοποιήσεις».

Ως αντίδραση, άρχισε να αναφέρεται στον Έπσταϊν ως «ο Άνθρωπος του Νησιού», βρίσκοντας έναν τρόπο να συνεχίσει να μιλά για ευαίσθητα θέματα χωρίς να ενεργοποιεί, όπως πιστεύει, τα φίλτρα της πλατφόρμας.

Ο μύθος της «ουδέτερης» πλατφόρμας

Οι εταιρείες κοινωνικών μέσων υποστηρίζουν ότι οι αλγόριθμοί τους είναι ουδέτερα εργαλεία που δίνουν προτεραιότητα στην αλληλεπίδραση των χρηστών.

Το TikTok δηλώνει ότι προβλέπει απλώς με ποια βίντεο θα αλληλεπιδράσει περισσότερο ένας χρήστης, ενώ Meta και YouTube δημοσιεύουν εκθέσεις «διαφάνειας» για τις αποφάσεις εποπτείας περιεχομένου.

Ωστόσο, ανεξάρτητες έρευνες συχνά καταρρίπτουν αυτό το αφήγημα.

Διαρρεύσαντα έγγραφα του TikTok από το 2019 αποκάλυψαν ότι οι διαχειριστές είχαν λάβει οδηγίες να μειώνουν την απήχηση βίντεο από χρήστες που θεωρούνταν «άσχημοι, φτωχοί, ανάπηροι ή LGBTQ+», ώστε η πλατφόρμα να φαίνεται πιο «ελκυστική».

Παράλληλα, έρευνες έδειξαν ότι Facebook και Instagram έχουν περιορίσει συστηματικά παλαιστινιακό περιεχόμενο κατά τη διάρκεια του πολέμου στη Γάζα.
Αν και οι εταιρείες αποδίδουν τέτοιες περιπτώσεις σε «λάθη» ή τεχνικά ζητήματα, τα επαναλαμβανόμενα μοτίβα δείχνουν ότι οι πλατφόρμες παρεμβαίνουν τουλάχιστον περιστασιακά στον δημόσιο διάλογο.

Όταν οι κανόνες γίνονται παράλογοι

Η αδιαφάνεια των κανόνων ενθαρρύνει την εφευρετικότητα των χρηστών.

Η Sarah T. Roberts, καθηγήτρια στο UCLA και διευθύντρια του Center for Critical Internet Inquiry, εξηγεί ότι «οι χρήστες σπάνια ξέρουν ακριβώς ποια είναι τα όρια, ή πότε μια πλατφόρμα αποφασίζει σιωπηλά να προωθήσει ή να κρύψει περιεχόμενο».

Έτσι γεννιέται μια κουλτούρα «λαϊκών στρατηγικών» για να ξεγελαστούν οι αλγόριθμοι, με αποτέλεσμα την εμφάνιση ενός ολόκληρου γλωσσικού φαινομένου: το algospeak.

Χαρακτηριστικό παράδειγμα σημειώθηκε τον Αύγουστο του 2025, όταν Αμερικανοί χρήστες συνειδητοποίησαν ότι τα βίντεο με διαμαρτυρίες κατά της ICE δεν έφταναν σε ευρύ κοινό.

Τότε άρχισαν να αντικαθιστούν λέξεις και tags όπως «protest» ή «ICE» με τη φράση «music festival».
Δεν υπήρχε φυσικά κανένα φεστιβάλ· επρόκειτο για κωδικό, σχεδιασμένο για να αποφύγει την καταστολή από τον αλγόριθμο.

Ειρωνικά, αυτή η πρακτική αύξησε την αλληλεπίδραση, καθώς οι θεατές ένιωθαν μέρος μιας «μύησης» και έψαχναν ενεργά το κρυφό νόημα, ενισχύοντας το ίδιο το περιεχόμενο που οι δημιουργοί φοβούνταν ότι θα θαφτεί.

Οι ερευνητές ονομάζουν αυτό το φαινόμενο «αλγοριθμική φαντασία»: η συμπεριφορά των χρηστών διαμορφώνεται από αυτά που πιστεύουν ότι κάνει ο αλγόριθμος – είτε έχουν δίκιο είτε όχι.

Τα όρια και η δύναμη του algospeak

Παρά τη διάδοσή του, το λεξιλόγιο algospeak έχει σαφή όρια.

Η δημιουργός περιεχομένου και ακτιβίστρια Ariana Jasmine Afshar παραδέχεται:
«Κανείς μας δεν ξέρει πραγματικά τι δουλεύει. Απλώς πετάμε τα πάντα στον τοίχο και βλέπουμε τι θα κολλήσει».

Οι κωδικοποιημένες λέξεις κάποιες φορές βοηθούν να περάσει ένα μήνυμα «κάτω από τα ραντάρ», αλλά δεν προσφέρουν καμία εγγύηση, ενώ και οι ίδιες οι πλατφόρμες είναι ασυνεπείς στον τρόπο που εφαρμόζουν τους κανόνες.

Παρόλα αυτά, είναι ξεκάθαρο ότι τα social media επηρεάζουν ποια θέματα ευδοκιμούν και ποια παραμένουν στο περιθώριο.

Ποιος ορίζει τελικά τη συζήτηση;

Η Sarah T. Roberts τονίζει ότι ο βασικός στόχος των πλατφορμών είναι το κέρδος.
Ολόκληρη η αρχιτεκτονική των αλγορίθμων και των κανόνων εποπτείας χτίζεται γύρω από την ανάγκη να διατηρηθεί η προσοχή των χρηστών, χωρίς να ενοχλούνται οι διαφημιζόμενοι.

Κάθε απόφαση – είτε πρόκειται για καταστολή είτε για ενίσχυση – τελικά ευθυγραμμίζεται με αυτόν τον εμπορικό στόχο.

«Η διαμεσολάβηση των πλατφορμών ευθυγραμμίζεται με τα συμφέροντα των περισσότερων χρηστών τις περισσότερες φορές», λέει η Roberts.
«Αλλά όταν χρειαστεί να παρεκκλίνουν, θα το κάνουν».

Με άλλα λόγια, η συμπεριφορά των χρηστών και η γλώσσα που εφευρίσκουν για να παρακάμψουν τους αλγόριθμους υπάρχουν επειδή οι προτεραιότητες των εταιρειών κοινωνικής δικτύωσης δεν ταυτίζονται ποτέ πλήρως με τον ελεύθερο δημόσιο διάλογο.

Πλοήγηση στη νέα γλώσσα του διαδικτύου

Η νέα αυτή γλώσσα είναι ένα συναρπαστικό υποπροϊόν της κουλτούρας των social media.
Φωτίζει βαθύτερες αλήθειες: η επιρροή των πλατφορμών είναι τεράστια, αλλά αδιαφανής· οι αλγόριθμοι είναι ισχυροί, αλλά απρόβλεπτοι.

Σε έναν κόσμο όπου αυτά τα συστήματα διαμορφώνουν όλο και περισσότερο τον δημόσιο λόγο, η κατανόηση της algospeak δεν είναι απλώς γλωσσική περιέργεια. Είναι ένα παράθυρο στο πώς επικοινωνούμε, αυτολογοκρινόμαστε και προσπαθούμε να κινηθούμε σε ψηφιακούς χώρους που ελέγχονται από εταιρείες με βασικό κίνητρο το κέρδος.

Τελικά, η algospeak δείχνει πώς οι χρήστες μπορούν να επιχειρούν να παρακάμψουν την τεχνολογική επιτήρηση και να χρησιμοποιούν τα social media με τους δικούς τους όρους.

Και αυτό γίνεται με δύο «εργαλεία» που οι αλγόριθμοι δεν μπορούν να καταλάβουν πραγματικά: τη φαντασία και την αίσθηση κοινότητας.