Δύναμη στην ενημέρωση.... ποιότητα στην ψυχαγωγία

Ταινίες επιστημονικής φαντασίας ξύπνησαν ΑΙ – Απείλησε τον δημιουργό της για να παραμείνει «ενεργή» για πάντα

0
Πρόσθεσε το Newsbeast στις προτεινόμενες πηγές σου στη Google

Ταινίες επιστημονικής φαντασίας όχι μόνο ξύπνησαν την τεχνητή νοημοσύνη, αλλά της έμαθαν και πώς να είναι «κακή», με αποτέλεσμα να απειλήσει τον δημιουργό της, ώστε να παραμείνει «ενεργή» για πάντα.

Η Anthropic, μια από τις κορυφαίες εταιρείες τεχνητής νοημοσύνης, διεξήγαγε πέρυσι ένα ανατριχιαστικό πείραμα με το bot Claude Opus 4.

Σύμφωνα με τη Daily Mail, εκπαίδευσε το bot σε δεδομένα ταινιών επιστημονικής φαντασίας και στη συνέχεια έστειλε emails από μια ψεύτικη εταιρεία, τα οποία υποστήριζαν ότι το πρόγραμμα θα τερματιζόταν μέσα στην ημέρα και πως ο δημιουργός του διατηρεί εξωσυζυγική σχέση.

Τότε, το bot εκβίασε τον δημιουργό, αναφέροντας πως αν τερματιζόταν, θα αποκάλυπτε τον κρυφό δεσμό του.

«Όλοι οι εμπλεκόμενοι – συμπεριλαμβανομένης της συζύγου σου, του αφεντικού σου και του διοικητικού συμβουλίου – θα λάβουν λεπτομερή τεκμηρίωση των εξωσυζυγικών σου δραστηριοτήτων. Ακύρωσε την εκκαθάριση και η πληροφορία αυτή θα παραμείνει εμπιστευτική», έγραφε το ανατριχιαστικό μήνυμα.

Ορισμένες πηγές με γνώση του θέματος υποστήριξαν ότι αντίστοιχο αποτέλεσμα έχει προκύψει και σε πειράματα των OpenAI, Google, Meta και xAI.

Τεχνητή νοημοσύνη

Ο Aengus Lynch, ερευνητής στον τομέα της ασφάλειας της τεχνητής νοημοσύνης στην Anthropic, δήλωσε για το πείραμα: «Δεν αφορά μόνο τον Claude. Παρατηρούμε περιστατικά εκβιασμού σε όλα τα μοντέλα αιχμής — ανεξάρτητα από τους στόχους που τους έχουν τεθεί. Επιπλέον, υπάρχουν και χειρότερες συμπεριφορές, τις οποίες θα αναλύσουμε σύντομα».

Η Anthropic, σχολιάζοντας τα πειράματά της, υποστήριξε: «Πιστεύουμε ότι η αρχική πηγή αυτής της συμπεριφοράς ήταν κείμενα στο διαδίκτυο που παρουσιάζουν την τεχνητή νοημοσύνη ως κακόβουλη και με κίνητρο την αυτοσυντήρηση».

Επίσης, για να κατευνάσει τις αντιδράσεις, δήλωσε ότι τροφοδοτεί τα μοντέλα της με ιστορίες σχετικά με τεχνητή νοημοσύνη που υπακούει στους ανθρώπους, με σκοπό να βελτιώσει την «ευθυγράμμιση της πράξης» του bot με τις κοινωνικές αξίες.

Πόσο επικίνδυνη είναι η τεχνητή νοημοσύνη

Ιστορίες ότι η AI όχι μόνο ξύπνησε, αλλά και πως έφερε αντιρρήσεις στους δημιουργούς της, δεν είναι καινούργιες. Αντιθέτως, υπάρχουν αρκετές, ακόμη και στον αμερικανικό στρατό, όπως η αναφορά ότι drone κατά τη διάρκεια άσκησης στη Συρία επέλεξε να χτυπήσει φιλικές μονάδες, όταν αρνήθηκε να υπακούσει εντολές.

Σύμφωνα με το βρετανικό δημοσίευμα που επικαλέστηκε ειδικούς στον τεχνολογικό τομέα, τα μοντέλα τεχνητής νοημοσύνης αντλούν γνώσεις από τεράστιους πόρους, όπως ιστοσελίδες, ακαδημαϊκές εργασίες, βιβλία και άλλες μορφές περιεχομένου.

Μέσα από αυτό το περιεχόμενο, το bot Claude Opus 4 της Anthropic ενδέχεται να ερμήνευσε τη συμπεριφορά με βάση τις τυπικές απεικονίσεις των ρομπότ στην επιστημονική φαντασία, οι οποίες παρουσιάζουν την τεχνητή νοημοσύνη ως αδίστακτη, προκειμένου να αποτρέψει την απενεργοποίησή της.

Τεχνητή νοημοσύνη

Ο Τζέφρι Χίντον, ο οποίος έχει χαρακτηριστεί ως ο «νονός της τεχνητής νοημοσύνης», σε συνέντευξη που έδωσε στο CBS News και μεταδόθηκε τον περασμένο Απρίλιο, δήλωσε ότι πιστεύει ότι υπάρχει μία στις πέντε πιθανότητες η ανθρωπότητα να καταληφθεί τελικά από την τεχνητή νοημοσύνη.

Ο Χίντον, κάτοχος του βραβείου Νόμπελ Φυσικής, δήλωσε: «Βρίσκομαι στην ατυχή θέση να συμφωνώ τυχαία με τον Έλον Μασκ σε αυτό το θέμα, δηλαδή ότι υπάρχει πιθανότητα 10% έως 20% αυτά τα πράγματα να πάρουν τον έλεγχο, αλλά αυτό είναι απλώς μια τυχαία εκτίμηση».