Η OpenAI δήλωσε ότι θα σταματήσει να αξιολογεί τα μοντέλα AI πριν τους απελευθερώσει για τον κίνδυνο να μπορούν να πείσουν ή να χειραγωγήσουν τους ανθρώπους, ενδεχομένως να βοηθήσουν στην ανάπτυξη των εκλογών ή να δημιουργήσουν εξαιρετικά αποτελεσματικές εκστρατείες προπαγάνδας.
Η εταιρεία δήλωσε ότι τώρα θα εξετάσει αυτούς τους κινδύνους μέσω των συνθηκών συντήρησης, περιορίζοντας τη χρήση μοντέλων AI σε πολιτικές εκστρατείες και άσκηση πίεσης και επίσης παρακολουθεί τον τρόπο με τον οποίο οι άνθρωποι χρησιμοποιούν τα μοντέλα μόλις απελευθερωθούν για σημάδια παραβιάσεων.
Ο OpenAI δήλωσε επίσης ότι θα εξετάσει την εξέταση των μοντέλων AI, τα οποία, σύμφωνα με τον “υψηλό κίνδυνο”, αν έλαβε τα αντίστοιχα μέτρα για να μειώσουν αυτούς τους κινδύνους – και ακόμη και να εξετάσει το ζήτημα της απελευθέρωσης του μοντέλου, το οποίο αντιπροσώπευε αυτό που ονομάζεται “κρίσιμος κίνδυνος” εάν το ανταγωνιστικό εργαστήριο του AI έχει ήδη κυκλοφορήσει ένα παρόμοιο μοντέλο. Νωρίτερα, ο Openai είπε ότι δεν θα κυκλοφορήσει κανένα μοντέλο τεχνητής νοημοσύνης, το οποίο παρουσίασε περισσότερο από τον “μέσο κίνδυνο”.
Οι αλλαγές στην πολιτική παρατίθενται στην ενημερωμένη ενημέρωση χθες στο εργαλείο ετοιμότητας OpenAI. Αυτή η δομή περιγράφει λεπτομερώς τον τρόπο με τον οποίο η εταιρεία ελέγχει τα μοντέλα τεχνητής νοημοσύνης, τα οποία δημιουργεί για έναν δυνητικά καταστροφικό κίνδυνο, από το γεγονός ότι τα μοντέλα θα βοηθήσουν κάποιον να δημιουργήσει βιολογικά όπλα για να βοηθήσει τους χάκερς στο γεγονός ότι τα μοντέλα θα απορρίπτουν ανεξάρτητα και θα αποφύγουν τον έλεγχο του ανθρώπου.
Οι αλλαγές στην πολιτική μοιράζονται εμπειρογνώμονες σχετικά με την ασφάλεια και την ασφάλεια του AI. Μερικοί από αυτούς ανέλαβαν τα κοινωνικά δίκτυα για να επαινέσω το OpenAI για την εθελοντική απελευθέρωση της ενημερωμένης δομής, σημειώνοντας τέτοιες βελτιώσεις ως σαφέστερες κατηγορίες κινδύνου και ισχυρότερη έμφαση στις απειλές που προκύπτουν, όπως η αυτόνομη αντιγραφή και η φοροδιαφυγή.
Παρ ‘όλα αυτά, άλλοι εξέφρασαν την ανησυχία τους, συμπεριλαμβανομένου του Stephen Adler, πρώην ερευνητή ασφαλείας OpenAi, ο οποίος επέκρινε το γεγονός ότι η ενημερωμένη δομή δεν απαιτεί πλέον δοκιμές για την ασφάλεια των ακριβών μοντέλων. “Ο OpenAi μειώνει ήσυχα τις υποχρεώσεις ασφαλείας του”, έγραψε στο Χ. Ωστόσο, τόνισε ότι εκτιμούσε τις προσπάθειες του OpenAI: «Είμαι γενικά ευτυχής που βλέπω την ενημερωμένη δομή της ετοιμότητας», είπε. “Αυτό ήταν πιθανώς μια σπουδαία δουλειά και δεν ήταν αυστηρά απαραίτητο.”
Μερικοί κριτικοί τόνισαν την απομάκρυνση των πεποιθήσεων από τους κινδύνους που αντιμετωπίζουν τη δομή της ετοιμότητας.
“Το OpenAi, στην ορατή, αλλάζει την προσέγγισή του”, δήλωσε ο Shyam Krishna, ηγέτης της μελέτης στον τομέα της πολιτικής και της τεχνητής διαχείρισης της τέχνης στην Rand Europe. “Αντί να θεωρηθεί η πίστη ως η κύρια κατηγορία κινδύνων, μπορεί τώρα να θεωρηθεί είτε ως κοινωνικό και ρυθμιστικό πρόβλημα ενός υψηλότερου επιπέδου είτε να ενσωματωθεί στις υπάρχουσες αρχές της OpenAI σχετικά με τους περιορισμούς στην ανάπτυξη μοντέλων και χρήσης”. Δεν είναι ακόμα άγνωστο πώς θα αναπτυχθεί αυτό σε τομείς όπως η πολιτική, πρόσθεσε, όπου οι πειστικές δυνατότητες του AI είναι “εξακολουθούν να αμφισβητούν το πρόβλημα”.
Ο Courtney Radsh, ανώτερος ερευνητής στο Brookings, το Κέντρο Διεθνών καινοτομιών της Διοίκησης και του Κέντρου Δημοκρατίας και Τεχνολογιών που εργάζονται για την ηθική του AI, συνέχισαν, καλώντας το πλαίσιο του μηνύματος Τύχη “Ένα άλλο παράδειγμα της υπερηφάνειας του τεχνολογικού τομέα.” Τόνισε ότι η απόφαση να μειωθεί η «πεποίθηση» «αγνοεί το πλαίσιο – για παράδειγμα, η πίστη μπορεί να είναι σημαντικά επικίνδυνη για τους ανθρώπους, όπως τα παιδιά ή τα άτομα με χαμηλή παιδεία του ΑΙ ή σε αυταρχικές πολιτείες και κοινωνίες».
Ο Oren Epion, ο πρώην γενικός διευθυντής του Ινστιτούτου II Allen και ο ιδρυτής της Truemedia, ο οποίος προσφέρει εργαλεία για την καταπολέμηση του περιεχομένου AI, εξέφρασε επίσης ανησυχία. “Η μείωση της εξαπάτησης με επηρεάζει ως λάθος, δεδομένης της αυξανόμενης πειστικής δύναμης του LLM”, δήλωσε σε ένα ηλεκτρονικό ταχυδρομείο. “Πρέπει να ρωτήσουμε αν η OpenAI επικεντρώνεται απλώς στην επιδίωξη εισοδήματος με ελάχιστο σεβασμό στην κοινωνική επιρροή”.
Παρ ‘όλα αυτά, ένας ερευνητής ασφαλείας δεν σχετίζεται με το OpenAI, είπε Τύχη Αυτό που φαίνεται λογικό να λύσει απλώς τους κινδύνους από παραπληροφόρηση ή άλλη κακόβουλη πεποίθηση που χρησιμοποιείται μέσω των συνθηκών της υπηρεσίας OpenAI. Ο ερευνητής που ζήτησε να παραμείνει ανώνυμος, επειδή δεν του επιτρέπεται να μιλήσει δημοσίως χωρίς άδεια από τον σημερινό εργοδότη του, πρόσθεσε ότι ο κίνδυνος πειθούς/χειραγώγησης είναι δύσκολο να αξιολογηθεί κατά τη δοκιμή πριν από την αποσύνθεση. Επιπλέον, ανέφερε ότι αυτή η κατηγορία κινδύνου είναι πιο άμορφη και αμφιλεγόμενη σε σύγκριση με άλλους κρίσιμους κινδύνους, όπως ο κίνδυνος του AI, θα βοηθήσει κάποιον να κάνει ένα χημικό ή βιολογικό όπλο ή να βοηθήσει κάποιον στο κυβερνοχώρο.
Αξίζει να σημειωθεί ότι ορισμένα μέλη του Ευρωπαϊκού Κοινοβουλίου εξέφρασαν επίσης την ανησυχία τους για το γεγονός ότι το τελευταίο σχέδιο προτεινόμενου κώδικα πρακτικής συμμόρφωσης με τον νόμο της ΕΕ μείωσε επίσης την υποχρεωτική δοκιμή μοντέλων τεχνητής νοημοσύνης, ώστε να μπορούν να διαδώσουν την παραπληροφόρηση και να υπονομεύσουν τη δημοκρατία σε εθελοντική εξέταση.
Μελέτες έχουν δείξει ότι τα bots AI chat είναι πολύ πειστικά, αν και αυτή η ίδια η πιθανότητα δεν είναι απαραιτήτως επικίνδυνη. Για παράδειγμα, οι ερευνητές του Πανεπιστημίου του Cornell και του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης διαπίστωσαν ότι οι διαλόγοι με chat bots ήταν αποτελεσματικά για να έχουν θέματα ανθρώπων.
Μια άλλη κριτική για την ενημερωμένη δομή OpenAI, που επικεντρώνεται στη γραμμή όπου ο OpenAI λέει: “Εάν ένα άλλο Frontier AI του προγραμματιστή απελευθερώνει ένα σύστημα υψηλής κίνησης χωρίς συγκρίσιμες εγγυήσεις, μπορούμε να προσαρμόσουμε τις απαιτήσεις μας”.
Ο Max Tegmark, πρόεδρος του Ινστιτούτου Μέλλον της Ζωής, μη κερδοσκοπικός οργανισμός που επιδιώκει να λύσει το πρόβλημα των υπαρξιακών κινδύνων, συμπεριλαμβανομένων των απειλών από τα προηγμένα συστήματα του AI, δήλωσε σε δήλωση Τύχη Το γεγονός ότι “ο αγώνας προς τα κάτω επιταχύνεται. Αυτές οι εταιρείες συμμετέχουν ανοιχτά σε αγώνες για να δημιουργήσουν ένα ανεξέλεγκτο τεχνητό σύστημα κοινής νοημοσύνης τεχνητής τέχνης από ό, τι ένα άτομο που έχει σχεδιαστεί για να αντικαταστήσει τους ανθρώπους, βλέποντας ότι αντιπροσωπεύει μαζικούς κινδύνους που οι υπάλληλοί μας, οι οικογένειές μας, η εθνική μας ασφάλεια, ακόμη και η περαιτέρω ύπαρξή μας”.
“Σηματοδοτούν κυρίως ότι τίποτα από αυτό που μιλάει για την ασφάλεια του AI δεν έχει κοπεί σε πέτρα”, δήλωσε ο παλιός κριτικός του OpenAi Gary Marcus στην έκθεση LinkedIn, η οποία ανέφερε ότι η γραμμή εμποδίζει τον αγώνα κάτω. “Αυτό που πραγματικά ρυθμίζει τις λύσεις τους είναι ανταγωνιστική πίεση, όχι ασφάλεια.
Σε γενικές γραμμές, είναι χρήσιμο οι εταιρείες όπως η OpenAI ανοιχτά να μιλούν ανοιχτά για την πρακτική της διαχείρισης κινδύνων, η Miranda Bogen, διευθυντής του εργαστηρίου της τεχνητής διαχείρισης νοημοσύνης στο Κέντρο Δημοκρατίας και Τεχνολογίας. Τύχη Σε ένα email.
Παρ ‘όλα αυτά, πρόσθεσε ότι ανησυχούσε ότι κινεί τα ράφια του κολάρο. “Θα ήταν μια ανησυχητική τάση εάν, όπως και τα συστήματα AI φαίνεται να εισέρχονται σε ειδικούς κινδύνους, οι ίδιοι οι κίνδυνοι στερούνται στις κορυφαίες αρχές που οι εταιρείες δημιουργούν για τον εαυτό τους”, ανέφερε.
Επέκρινε επίσης το επίκεντρο της δομής στα μοντέλα “συνόρων” όταν η OpenAI και άλλες εταιρείες χρησιμοποίησαν τους τεχνικούς ορισμούς αυτού του όρου ως δικαιολογία, ώστε να μην δημοσιεύσουν τις αξιολογήσεις ασφαλείας των πρόσφατων, ισχυρών μοντέλων (για παράδειγμα, η OpenAI εξέδωσε το μοντέλο 4.1 χθες χωρίς έκθεση ασφαλείας, λέγοντας ότι δεν ήταν μοντέλο συνόρων). Σε άλλες περιπτώσεις, οι εταιρείες είτε δεν μπορούσαν να δημοσιεύσουν αναφορές ασφαλείας, είτε το έκαναν αργά, δημοσιεύοντας τους λίγους μήνες μετά την απελευθέρωση του μοντέλου.
“Μεταξύ αυτών των προβλημάτων και ενός νέου μοντέλου μεταξύ των προγραμματιστών τεχνητής νοημοσύνης, όπου τα νέα μοντέλα ξεκινούν πολύ πριν ή εντελώς χωρίς τεκμηρίωση, την οποία οι ίδιες οι εταιρείες υποσχέθηκαν να απελευθερώσουν, είναι σαφές ότι οι εθελοντικές υποχρεώσεις είναι μόνο τόσο μακριά”, ανέφερε.
Ενημέρωση, 16 Απριλίου: Αυτή η ιστορία ενημερώθηκε για να συμπεριλάβει σχόλια από τον Πρόεδρο του Ινστιτούτου Μελλοντικής Ζωής του Max Tegmark.
Αυτή η ιστορία παρουσιάστηκε αρχικά στο Fortune.com