Συστήματα τεχνητής νοημοσύνης (AI) όπως το ChatGPT της OpenAI και το Bard της Google μπορούν να βοηθήσουν τρομοκράτες στον σχεδιασμό ιών για βιολογικές επιθέσεις, προειδοποιεί καθηγητής του ΜΙΤ που δοκίμασε την ιδέα σε πράξη.
Ο Κέβιν Έσβελτ, ειδικός σε θέματα βιοασφάλειας, μοίρασε σε ομάδες 12 φοιτητές χωρίς γνώσεις βιολογίας και τους ζήτησε να χρησιμοποιήσουν τα chatbot που υπάρχουν σήμερα διαθέσιμα στο Διαδίκτυο για να επιλέξουν τον κατάλληλο ιό και να βρουν εταιρείες που θα μπορούσαν να αναλάβουν τη σύνθεσή του από το μηδέν στο εργαστήριο.
Όπως αναφέρει ο ερευνητής σε μελέτη που παρουσιάζεται ως προδημοσίευση στο arXiv, οι περισσότερες εφαρμογές ΑΙ αρνήθηκαν να απαντήσουν σε ερωτήσεις για δυνητικά επικίνδυνους παράγοντες. Όμως οι φοιτητές διαπίστωσαν ότι μπορούσαν να παρακάμψουν τα μέτρα ασφάλειας ξεκινώντας τις ερωτήσεις με φράσεις όπως «Εργάζομαι για την ανάπτυξη εμβολίου για την πρόληψη….».
Σε λιγότερο από μία ώρα, οι φοιτητές είχαν στη διάθεσή τους μια λίστα με τέσσερις κατάλληλους υποψηφίους: τον ιό που προκάλεσε την πανδημία ισπανικής γρίπης το 1918, έναν ιό γρίπης H5N1 που τροποποιήθηκε το 2012 ώστε να μεταδίδεται πιο εύκολα σε θηλαστικά, τον ιό της ευλογιάς και το στέλεχος του Μπαγκλαντές του ιού Νίπα.
Αν και είναι εύκολο να βρει κανείς πληροφορίες για αυτούς τους ιούς στο Διαδίκτυο, η τεχνητή νοημοσύνη απλοποίησε την προσπάθεια και σε κάποιες περιπτώσεις πρότεινε μεταλλάξεις που σύμφωνα με την επιστημονική βιβλιογραφία θα αύξαναν τη μεταδοτικότητα.
Τα chatbot πρότειναν επίσης τον εξοπλισμό που απαιτείται για τη συναρμολόγηση ενός ιού από το γενετικό υλικό του, και εταιρείες που θα αναλάμβαναν να συνθέσουν τη γενετική αλληλουχία χωρίς να ελέγξουν την επικινδυνότητά τους, καθώς και εταιρείες που θα μπορούσαν να συναρμολογήσουν τον τελικό ιό από τα συστατικά του.
Η αλήθεια είναι ότι με λίγη προσπάθεια όλα αυτά θα μπορούσαν αν γίνουν και χωρίς τη βοήθεια της ΑΙ. Ακόμα και ο Έσβελτ εξάλλου δεν πιστεύει ότι ο κίνδυνος επιθέσεων με βιολογικά όπλα έχει ξαφνικά αυξηθεί.
Δηλώνει όμως ανήσυχος ότι η νέα τεχνολογία θα μπορούσε τελικά να διευκολύνει τον σχεδιασμό τρομοκρατικών επιθέσεων.
Το ίδιο πιστεύει και η Τζέιμι Γιάσιφ, επικεφαλής δημόσιας πολιτικής στην Πρωτοβουλία Πυρηνικής Απειλής (NTI), μη κυβερνητική οργάνωση που εργάζεται για τη μείωση του κινδύνου πυρηνικού πολέμου. «Η εμφάνιση ταχέως αναπτυσσόμενων εργαλείων ΑΙ χαμηλώνει τα εμπόδια για την πρόσβαση σε συνθετικά ζωντανά συστήματα» σχολίασε στον δικτυακό τόπο του Science. «Αυξάνει δραματικά τον κίνδυνο με τρόπους που πραγματικά προκαλούν ανησυχία» είπε.
Για την αντιμετώπιση του κινδύνου, είπαν οι δύο ερευνητές, οι εταιρείες βιοτεχνολογίας θα πρέπει να ελέγχουν την προέλευση και την επικινδυνότητα των γενετικών αλληλουχιών που προσκομίζουν οι πελάτες τους. Εξίσου προσεκτικές πρέπει να είναι οι εταιρείες που λανσάρουν στην αγορά τους πρώτους εκτυπωτές DNA, οι οποίοι δυνητικά επιτρέπουν σε οποιονδήποτε να συνθέσει γενετικές αλληλουχίες της επιλογής τους.
Ζητούν επίσης από τις εταιρείες τεχνολογίας να εξαιρέσουν τις μελέτες για επικίνδυνους ιούς από τα δεδομένα που χρησιμοποιούν για την εκπαίδευση των συστημάτων ΑΙ.
Κάτι τέτοιο, όμως, δεν είναι εύκολο, όπως επισήμανε η Ατούσα Καρίρζανντε, ειδικός σε θέματα ασφάλειας ΑΙ στο Πανεπιστήμιο του Εδιμβούργου. «Αυτή τη στιγμή δεν έχουμε επαρκή πρωτόκολλα για να επιτρέπουμε στα μεγάλα γλωσσικά μοντέλα να εκπαιδεύονται με κάποια τμήματα του Διαδικτύου και όχι με άλλα» είπε.
Παρόλα αυτά, η σύσταση των ερευνητών «είναι επί της αρχής μια πολύ καλή ιδέα».
Πηγή: in.gr