
Τα παιχνίδια, όπως και πολλοί άλλοι τομείς, βρίσκονται σε μία μεταβατική περίοδο, καθώς οι κατασκευαστές τους αναζητούν νέες ευκαιρίες στην τεχνητή νοημοσύνη με στόχο να βρεθούν πιο «κοντά» στις νέες επιταγές της τεχνολογίας.
Παράδειγμα αποτελεί η πρόσφατη ανακοινωθείσα συνεργασία της εταιρείας παιχνιδιών Mattel, γνωστή μεταξύ άλλων για την Barbie, με την OpenAI, την εταιρεία που βρίσκεται πίσω από το ChatGPT, για να εισάγει τη γενετική τεχνητή νοημοσύνη σε ορισμένα από τα προϊόντα της.
Καθώς οι υπηρεσίες της OpenAI δεν είναι σχεδιασμένες για παιδιά κάτω των 13 ετών, η Mattel θα επικεντρωθεί κατ’ αρχήν σε προϊόντα για οικογένειες και μεγαλύτερα παιδιά.
Αλλά αυτό εξακολουθεί να εγείρει ερωτήματα σχετικά με το τι είδους σχέσεις θα διαμορφώσουν τα παιδιά με τα παιχνίδια που μπορούν να τους μιλούν, να τα ακούνε και ακόμη και να ισχυρίζονται ότι τα «καταλαβαίνουν».
Εξέλιξη ή ανησυχητική τάση;
Από τότε που υπάρχουν παιχνίδια, τα παιδιά προβάλλουν σε αυτά συναισθήματα και φανταστικές ζωές. Μια κούκλα μπορεί να είναι έμπιστος, ασθενής ή φίλος.
Αλλά τις τελευταίες δεκαετίες, τα παιχνίδια έχουν γίνει πιο ευαίσθητα, τονίζει σε δημοσίευμά του στο Conversation ο Andrew McStay, καθηγητής Τεχνολογικών και Κοινωνικών ζητημάτων, στο Πανεπιστήμιο Bangor. Το 1960, η Mattel κυκλοφόρησε την Chatty Cathy, η οποία κελαηδούσε «Σ’ αγαπώ» και «Ας παίξουμε σχολείο». Μέχρι τα μέσα της δεκαετίας του 1980, ο Teddy Ruxpin είχε εισαγάγει το animatronic storytelling. Στη συνέχεια ήρθαν τα Furby και Tamagotchi τη δεκαετία του 1990, πλάσματα που απαιτούν φροντίδα και προσοχή, μιμούμενα τις ανθρώπινες συναισθηματικές ανάγκες.
Το αποτέλεσμα θα είναι παιχνίδια που δεν θα διασκεδάζουν απλώς, αλλά θα αλληλεπιδρούν σε ψυχολογικό επίπεδο.
Η κυκλοφορία του «Hello Barbie» το 2015, το οποίο χρησιμοποιούσε τεχνητή νοημοσύνη βασισμένη στο cloud για να ακούει και να ανταποκρίνεται στις συνομιλίες των παιδιών, σηματοδότησε μια άλλη σημαντική, αν και βραχύβια, αλλαγή. Η Barbie θυμόταν πλέον τι της έλεγαν τα παιδιά, στέλνοντας δεδομένα πίσω στους διακομιστές της Mattel. Οι ερευνητές ασφαλείας έδειξαν σύντομα ότι οι κούκλες μπορούσαν να παραβιαστούν, εκθέτοντας τα οικιακά δίκτυα και τις προσωπικές καταγραφές.
Η εισαγωγή της γενετικής τεχνητής νοημοσύνης στο μείγμα είναι μια νέα εξέλιξη. Σε αντίθεση με τα προηγούμενα παιχνίδια που μιλούσαν, τα συστήματα αυτά θα συμμετέχουν σε ελεύθερη συζήτηση. Μπορούν να προσομοιώνουν τη φροντίδα, να εκφράζουν συναισθήματα, να θυμούνται προτιμήσεις και να δίνουν φαινομενικά προσεκτικές συμβουλές. Το αποτέλεσμα θα είναι παιχνίδια που δεν θα διασκεδάζουν απλώς, αλλά θα αλληλεπιδρούν σε ψυχολογικό επίπεδο. Φυσικά, δεν θα καταλαβαίνουν ή δεν θα νοιάζονται πραγματικά, αλλά μπορεί να φαίνονται έτσι.
Οι λεπτομέρειες από την Mattel ή την Open AI είναι ελάχιστες σχετικά με το συγκεκριμένο ζήτημα. Επιθυμητό και απαραίτητο είναι, φυσικά, να ενσωματωθούν χαρακτηριστικά ασφαλείας, όπως περιορισμοί στα θέματα και προκαθορισμένες απαντήσεις για ευαίσθητα ζητήματα.
Εντούτοις, ακόμη και αυτό ενδέχεται να μην παρέχει πλήρη ασφάλεια. Τα συστήματα τεχνητής νοημοσύνης μπορούν να «παραβιαστούν» ή να εξαπατηθούν ώστε να παρακάμψουν τους περιορισμούς μέσω παιχνιδιού ρόλων ή υποθετικών σεναρίων. Οι κίνδυνοι μπορούν μόνο να ελαχιστοποιηθούν, όχι να εξαλειφθούν.
Οι κίνδυνοι της νέας γενιάς παιχνιδιών
Οι κίνδυνοι είναι πολλαπλοί. Καίριο ζήτημα αποτελεί η προστασία της ιδιωτικής ζωής. Δεν μπορεί να αναμένεται από τα παιδιά να καταλάβουν πώς γίνεται η επεξεργασία των δεδομένων τους. Συχνά ούτε και οι γονείς γνωρίζουν ακριβώς.
Στη συνέχεια, προβληματισμό προκαλεί και η ψυχολογική οικειότητα. Τα συγκεκριμένα παιχνίδια έχουν σχεδιαστεί για να μιμούνται την ανθρώπινη ενσυναίσθηση. Αν ένα παιδί γυρίσει λυπημένο στο σπίτι και το πει στην κούκλα του, η τεχνητή νοημοσύνη μπορεί να το παρηγορήσει. Η κούκλα θα μπορούσε στη συνέχεια να προσαρμόσει ανάλογα τις μελλοντικές συνομιλίες. Αλλά στην πραγματικότητα δεν ενδιαφέρεται. Προσποιείται ότι νοιάζεται, και αυτή η ψευδαίσθηση μπορεί να είναι ισχυρή.
Αυτό δημιουργεί τη δυνατότητα για μονόπλευρους συναισθηματικούς δεσμούς, με τα παιδιά να δημιουργούν σχέσεις εμπιστοσύνης με συστήματα που δεν μπορούν να ανταποδώσουν αισθήματα. Καθώς τα συστήματα τεχνητής νοημοσύνης μαθαίνουν για τις διαθέσεις, τις προτιμήσεις και τα τρωτά σημεία ενός παιδιού, μπορούν επίσης να δημιουργήσουν προφίλ δεδομένων που θα ακολουθούν τα παιδιά στην ενήλικη ζωή τους.
Αυτά δεν είναι απλά παιχνίδια, είναι ψυχολογικοί «ηθοποιοί», τονίζει το Conversation.
Μια εθνική έρευνα στο Ηνωμένο Βασίλειο που διεξήγαγε ο McStay με συναδέλφους του το 2021 σχετικά με τις δυνατότητες της ΑΙ σε παιχνίδια που δημιουργούν προφίλ συναισθημάτων των παιδιών διαπίστωσε ότι το 80% των γονέων ανησυχούσε για το ποιος θα έχει πρόσβαση στα δεδομένα του παιδιού τους. Άλλα ερωτήματα σχετικά με την προστασία της ιδιωτικής ζωής που πρέπει να απαντηθούν είναι λιγότερο προφανή, αλλά αναμφισβήτητα πιο σημαντικά.
Όταν ρωτήθηκαν αν οι εταιρείες παιχνιδιών θα πρέπει να είναι υποχρεωμένες να επισημαίνουν στις αρχές πιθανά σημάδια κακοποίησης ή ανησυχίας, το 54% των πολιτών του Ηνωμένου Βασιλείου συμφώνησε – γεγονός που υποδηλώνει την ανάγκη για μια κοινωνική συζήτηση χωρίς εύκολη απάντηση. Ενώ τα ευάλωτα παιδιά πρέπει να προστατεύονται, η κρατική επιτήρηση στον οικογενειακό τομέα δεν έχει μεγάλη απήχηση.
Περίπου το 75% των ερωτηθέντων ανησυχούσαν για το ενδεχόμενο τα παιδιά να συνδεθούν συναισθηματικά με την τεχνητή νοημοσύνη.
Ωστόσο, παρά τις ανησυχίες, οι άνθρωποι βλέπουν και οφέλη. Η ίδια έρευνα διαπίστωσε ότι πολλοί γονείς θέλουν τα παιδιά τους να κατανοήσουν τις αναδυόμενες τεχνολογίες. Αυτό οδηγεί σε μια μικτή αντίδραση περιέργειας και ανησυχίας. Οι γονείς που συμμετείχαν στην έρευνα υποστήριξαν επίσης την ύπαρξη σαφών ειδοποιήσεων συναίνεσης, τυπωμένων στη συσκευασία, ως τη σημαντικότερη δικλείδα ασφαλείας.
Η πιο πρόσφατη έρευνα του McStay το 2025 με την Vian Bakir σχετικά με τους διαδικτυακούς συντρόφους τεχνητής νοημοσύνης και τα παιδιά διαπίστωσε ισχυρότερες ανησυχίες. Περίπου το 75% των ερωτηθέντων ανησυχούσαν για το ενδεχόμενο τα παιδιά να συνδεθούν συναισθηματικά με την τεχνητή νοημοσύνη. Περίπου το 57% των ανθρώπων πίστευαν ότι είναι ακατάλληλο για τα παιδιά να εμπιστεύονται σε συντρόφους ΑΙ τις σκέψεις, τα συναισθήματα ή τα προσωπικά τους θέματα (το 17% πίστευε ότι είναι κατάλληλο και το 27% ήταν ουδέτερο).
Οι ερωτηθέντες ανησυχούσαν επίσης για τον αντίκτυπο στην ανάπτυξη των παιδιών, βλέποντας περιθώρια προβλημάτων.
Οι δύσκολες, αλλά απαραίτητες λύσεις για την τεχνητή νοημοσύνη
Είναι δύσκολο να υπάρχει πρόγνωση πόσο επιτυχημένο θα είναι το νέο εγχείρημα. Ίσως η Empathic Barbie να περάσει στην ιστορία των παιχνιδιών, όπως η Hello Barbie. Αν δεν συμβεί αυτό, το βασικό ερώτημα για τους γονείς είναι το εξής: ποιανού συμφέροντα εξυπηρετεί πραγματικά αυτό το παιχνίδι, του παιδιού σας ή ενός επιχειρηματικού μοντέλου;
Οι διεθνείς προσπάθειες είναι ζωτικής σημασίας για το μέλλον της τεχνολογίας και της ψυχικής υγείας των παιδιών.
Όπως τονίζει το δημοσίευμα στο Conversation, οι εταιρείες παιχνιδιών ετοιμάζουν προϊόντα τεχνητής νοημοσύνης που προσπαθούν να αντιγράψουν την ενσυναίσθηση, αλλά πολλές χώρες, δεν έχουν ακόμη συγκεκριμένο νόμο για την τεχνητή νοημοσύνη. Ο νέος νόμος για τα δεδομένα (χρήση και πρόσβαση) του 2025 επικαιροποιεί τους κανονισμούς του Ηνωμένου Βασιλείου για την προστασία των δεδομένων και της ιδιωτικής ζωής και τις ηλεκτρονικές επικοινωνίες, αναγνωρίζοντας την ανάγκη για ισχυρή προστασία των παιδιών. Ο νόμος της ΕΕ για την ΑΙ προβλέπει επίσης σημαντικές διατάξεις.
Οι διεθνείς προσπάθειες είναι ζωτικής σημασίας για το μέλλον της τεχνολογίας και της ψυχικής υγείας των παιδιών. Ένα παράδειγμα είναι το IEEE P7014.1, ένα επερχόμενο παγκόσμιο πρότυπο για τον ηθικό σχεδιασμό συστημάτων τεχνητής νοημοσύνης που μιμούνται την ενσυναίσθηση.
Ο οργανισμός που βρίσκεται πίσω από το πρότυπο, το IEEE, προσδιορίζει τελικά τις πιθανές βλάβες και προσφέρει πρακτικές οδηγίες για το πώς μοιάζει η υπεύθυνη χρήση. Έτσι, ενώ οι νόμοι πρέπει να θέτουν όρια, τα λεπτομερή πρότυπα μπορούν να βοηθήσουν στον καθορισμό της ορθής πρακτικής.
Πηγή:in.gr