Το AI Startup OnySphere έχει ταξιδέψει ψηλά τους τελευταίους δύο μήνες λόγω της ταχείας δημοτικότητας του βοηθού λογισμικού του με τον AI, τον δρομέα. Η εταιρεία που αποκτήθηκε για την εξαγορά της OpenAI και αναφέρθηκε στις διαπραγματεύσεις χρηματοδότησης για την εκτίμηση σχεδόν 10 δισεκατομμυρίων δολαρίων, έφτασε τα 100 εκατομμύρια δολάρια σε ετήσιο εισόδημα από τότε που ο δρομέας ξεκίνησε το 2023.
Όλα ξεκίνησαν στις αρχές αυτής της εβδομάδας, όταν ο χρήστης του δρομέα τοποθετήθηκε στο Hacker News και το Reddit, το οποίο οι πελάτες άρχισαν να αποτυγχάνουν μυστηριωδώς κατά την εναλλαγή μεταξύ συσκευών. Σε σύγχυση, ήλθαν σε επαφή με την υποστήριξη πελατών, μόνο για να αναφέρουν την απάντηση από το e -mail “Sam”, το οποίο, ως αποτέλεσμα μιας νέας καταχώρησης του συστήματος εισόδου στο σύστημα εισόδου.
Αλλά δεν υπήρχε νέα πολιτική – και δεν ήταν ένα άτομο που στέκεται πίσω από το ηλεκτρονικό ταχυδρομείο της υποστήριξης. Η απάντηση προήλθε από το bot με το AI και η νέα πολιτική ήταν μια «ψευδαίσθηση», μια εντελώς πλασματική εξήγηση.
Αυτές οι ειδήσεις εξαπλώθηκαν γρήγορα στην κοινότητα των προγραμματιστών, η οποία οδήγησε σε χρήστες που ακυρώνουν τις συνδρομές τους, ενώ ορισμένοι παραπονέθηκαν για την έλλειψη διαφάνειας. Ο συνιδρυτής Michael Truell δημοσίευσε τελικά στο Reddit, αναγνωρίζοντας την “εσφαλμένη απάντηση από τα bots AI στο μπροστινό άκρο”, και είπε ότι αυτό διερευνούσε το λάθος που εγγράφονται χρήστες. «Ζητούμε συγνώμη για τη σύγχυση εδώ», έγραψε.
Αλλά η απάντηση φαινόταν πολύ μικρή, πολύ αργά, με ψευδαίσθηση ενός bot που υποστηρίζει το AI, αφήνοντας έναν δρομέα, φαίνεται, ένα επίπεδο πόδι. Τύχη Ήρθα σε επαφή με το δρομέα για σχόλια, αλλά δεν έλαβα απάντηση.
Οι τεχνολογικές επιρροές του LinkedIn χρησιμοποιούν ήδη ένα παράδειγμα για την πρόληψη άλλων νεοσύστατων επιχειρήσεων. “Ο δρομέας … έχει μόλις προσγειωθεί σε μια ιογενή καυτή διαταραχή, επειδή δεν είπε στους χρήστες ότι η υποστήριξή του για τον” άνθρωπο “ο Σαμ είναι στην πραγματικότητα ένα παραισθησιογόνο bot”, έγραψε ο Cassier Kozirkov, ένας τεχνητός σύμβουλος τέχνης και ο πρώην επικεφαλής επιστήμονας Google, “στο Linkedin Post. Εσείς) και (3) οι χρήστες μισούν να εξαπατηθούν ως άτομο “, συνέχισε.
Ενώ η υποστήριξη πελατών θεωρήθηκε η κύρια επιλογή για τη χρήση του γενετικού AI από τότε που το OpenAI chatbot έκανε το ντεμπούτο του το 2022, είναι επίσης γεμάτος με κινδύνους, δήλωσε ο Sanketh Balakrishna, διευθυντής μηχανικού στην ασφάλεια της πλατφόρμας Datadog. Εξήγησε ότι η υποστήριξη πελατών απαιτεί το επίπεδο της ενσυναίσθησης, των αποχρώσεων και της επίλυσης προβλημάτων που μόνο η AI προσπαθεί να παραδώσει. “Θα ήμουν προσεκτικός ανάλογα με το πλήρως εξαρτημένο από τα προβλήματα του AI για την επίλυση των προβλημάτων των χρηστών”, δήλωσε Τύχη Από e -mail. “Αν γνωρίζω ότι η μόνη προσιτή υποστήριξη ήταν το σύστημα AI επιρρεπής σε τυχαία σφάλματα, μπορεί να υπονομεύσει την εμπιστοσύνη και να επηρεάσει την ικανότητά μας να επιλύουμε αποτελεσματικά τα προβλήματα”.
Ο Amiran Shahar, Γενικός Διευθυντής της Upwind Security, σημείωσε ότι δεν είναι η πρώτη φορά που οι παραισθησινοί chat bots του AI έπεσαν στους τίτλους των εφημερίδων. Η AIA Canada AI Chatbot δήλωσε στους πελάτες ότι η πολιτική επιστροφής ότι δεν υπήρχε, ενώ ο πάροχος υπηρεσιών πληρωμών της Klarna εργάστηκε σε σχέση με την αντικατάσταση όλων των πρακτόρων εξυπηρέτησης πελατών του τον Φεβρουάριο μετά από καταγγελίες σχετικά με την ψευδαίσθηση του AI chatbot. “Στην πραγματικότητα, το AI δεν καταλαβαίνει τους χρήστες σας ή πώς λειτουργούν”, είπε Τύχη Από e -mail. “Χωρίς σωστούς περιορισμούς, αυτό” με σιγουριά “θα συμπληρώσει τα κενά των ανυπέρβλητων πληροφοριών.” Για τους χρήστες υψηλής τεχνολογίας, όπως οι πελάτες του δρομέα, “Δεν υπάρχει περιθώριο για ανακριβείς εξηγήσεις”.
Ένας πελάτης δρομέα συμφώνησε: Η Melanie Warrick, συν -προϋπολογισμός της AI Startup Startup Fight Insurance Mearning, δήλωσε ότι η Coursor προσφέρει μεγάλη υποστήριξη στους προγραμματιστές και επίσης αυξάνει την τριβή. “Την περασμένη εβδομάδα, μπήκα στο σταθερό λάθος του πράκτορα (” δοκιμάστε το μετά από λίγα λεπτά), που δεν εξαφανίστηκαν ποτέ “, είπε Τύχη Από e -mail. “Η υποστήριξη έλαβε το ίδιο κονσερβοποιημένο, πιθανώς δημιούργησε αρκετές φορές την AI-Answer, χωρίς να επιλύσει το πρόβλημα. Σταμάτησα να χρησιμοποιώ τον πράκτορα IT δεν λειτούργησε και η επιδίωξη της διόρθωσης ήταν πολύ καταστροφική”.
Προς το παρόν, οι ψευδαισθήσεις που έγιναν από τους τίτλους έχουν περιοριστεί από την AI bots, αλλά οι εμπειρογνώμονες προειδοποιούν ότι, καθώς όλο και περισσότερες επιχειρήσεις γίνονται αποδεκτές από αυτόνομους πράκτορες AI, οι συνέπειες για τις εταιρείες μπορεί να είναι πολύ χειρότερες. Αυτό ισχύει ιδιαίτερα σε βιομηχανίες με υψηλό επίπεδο ρυθμιζόμενων, όπως η υγειονομική περίθαλψη, η οικονομική ή η νομική, όπως μια μεταφρασμένη μεταφρασμένη που ο αντισυμβαλλόμενος αρνείται να επιστρέψει ή να παρεξηγήσει που επηρεάζει την υγεία των ασθενών.
Η προοπτική της ψευδαισθήσεων των παραγόντων “είναι ένα κρίσιμο κομμάτι του παζλ που η βιομηχανία μας θα πρέπει να λύσει απολύτως πριν η AI μπορεί πραγματικά να επιτύχει ευρέως διαδεδομένο”, δήλωσε ο Amr Awadallah, ο γενικός διευθυντής και συν -ιδρυτής της Vectara, μιας εταιρείας που προσφέρει εργαλεία για να βοηθήσει τις επιχειρήσεις να μειώσουν τους κινδύνους από τις ψευδαισθήσεις AI.
Παρά το γεγονός ότι δεν είναι το σφάλμα του αυτόνομου πράκτορα του AI που εκτελεί το έργο, το Snafu Coursor είναι το “χειρότερο σενάριο” που επιβραδύνει την υιοθέτηση της υπηρεσίας AI, είπε Τύχη Από e -mail. Οι επιχειρήσεις αγαπούν την ιδέα των αυτόνομων αντιπροσώπων AI που μπορούν να αναλάβουν ανεξάρτητα δράση, εξοικονομώντας έτσι το κόστος εργασίας. Όμως, σύμφωνα με τον ίδιο, οι εταιρείες ανησυχούν επίσης ότι ένα περιστατικό παραισθήσεις, σε συνδυασμό με μια καταστροφική ή ακόμα και καταστροφική επίδραση της τεχνητής νοημοσύνης, μπορεί να επηρεάσει βαθιά την επιχείρησή τους “.
Αυτή η ιστορία παρουσιάστηκε αρχικά στο Fortune.com