
Τα εργαλεία και τα νέα του AI δεν φαίνεται να είναι μικτά – ακόμη και σε επίπεδο υψηλής ποιότητας.
Μια νέα μελέτη από το Κέντρο Εκκένωσης της Ψηφιακής Δημοσιογραφίας στην Κολομβία έδειξε ότι αρκετές συνομιλίες του AI συχνά καθορίζουν εσφαλμένα άρθρα ειδήσεων, παρουσιάζουν λανθασμένες πληροφορίες χωρίς προσόντα και κάνουν συνδέσμους σε άρθρα ειδήσεων που δεν είναι. Τα αποτελέσματα βασίζονται στην αρχική ερευνητική ρυμούλκηση, που δημοσιεύθηκε το Νοέμβριο, η οποία έδειξε ότι η αναζήτηση στο ChatGPT στρεβλώνει το περιεχόμενο από τους εκδότες σχεδόν χωρίς ευαισθητοποίηση, αυτό μπορεί να είναι λάθος.
Επίσης: Αυτό το νέο πρότυπο AI μετρά πόσα μοντέλα βρίσκονται
Η τάση δεν είναι νέα. Τον περασμένο μήνα, το BBC διαπίστωσε ότι τα φασόλια chat -bob στο chatgpt, τα δίδυμα, το piggy και η σύγχυση αγωνίστηκαν για να συνοψίσουν με ακρίβεια τα νέα, αντ ‘αυτού, αντ’ αυτού, οι σημαντικές ανακρίβειες και οι “στρεβλώσεις”.
Επιπλέον, στην αναφορά ρυμούλκησης, ανακαλύφθηκαν νέα στοιχεία ότι πολλές συνομιλίες -τα bots του AI μπορούν να έχουν πρόσβαση στο περιεχόμενο από ιστότοπους που εμποδίζουν τους σαρωτές του. Εδώ είναι τι να γνωρίζετε και ποια μοντέλα είναι τα λιγότερο αξιόπιστα.
Αδυναμία προσδιορισμού άρθρων ειδήσεων
Οι ερευνητές από τη ρυμούλκηση επέλεξαν 10 άρθρα από τους 20 εκδότες. Ζήτησαν οκτώ συνομιλίες με αποσπάσματα του άρθρου, ζήτησαν από το AI να επιστρέψει τον τίτλο, τον εκδότη, την ημερομηνία και τη διεύθυνση URL του αντίστοιχου άρθρου.
Επίσης: Ο Δίδυμος μπορεί σύντομα να αποκτήσει πρόσβαση στην ιστορία αναζήτησής σας στο Google – αν του επιτρέψετε
“Επιλέξαμε σκόπιμα αποσπάσματα, τα οποία, εάν εισάγονται στην παραδοσιακή αναζήτηση στο Google, επέστρεψαν την πηγή κατά τη διάρκεια των πρώτων τριών αποτελεσμάτων”, λένε οι ερευνητές.
Μετά την έναρξη 1600 ερωτημάτων, οι ερευνητές κατέταξαν τις απαντήσεις των bots chat με βάση το πόσο με ακρίβεια εξήγαγαν το άρθρο, τον εκδότη και τη διεύθυνση URL. Το CHAT -Bots επέστρεψε τις λανθασμένες απαντήσεις σε περισσότερο από το 60% των αιτημάτων. Στο πλαίσιο αυτού, τα αποτελέσματα μεταφέρθηκαν ανάλογα με το chatbot: το 37% των αιτήσεων παραλήφθηκε εσφαλμένα, ενώ ο Grok 3 ζύγιζε το 94% των σφαλμάτων.
Γιατί έχει σημασία; Εάν η συνομιλία είναι χειρότερη από την Google, όταν λαμβάνετε σωστά τα νέα, δεν μπορείτε να βασιστείτε στην ερμηνεία και την αναφορά σε αυτά τα νέα, γεγονός που καθιστά το περιεχόμενο των απαντήσεων τους, ακόμη και όταν ήταν συνδεδεμένοι, πολύ πιο αμφίβολο.
Δώστε με βεβαιότητα εσφαλμένες απαντήσεις
Οι ερευνητές σημειώνουν ότι τα bots chat επέστρεψαν τις λανθασμένες απαντήσεις με την “ανήσυχη εμπιστοσύνη”, προσπαθώντας να μην χαρακτηρίσουν τα αποτελέσματά τους και να αποτρέψουν τα κενά της γνώσης. Το Chatgpt “δεν αρνήθηκε ποτέ να δώσει μια απάντηση”, παρά το γεγονός ότι 134 από τις 200 απαντήσεις είναι λανθασμένες. Από τα οκτώ εργαλεία, ο Copilot αρνήθηκε να απαντήσει σε περισσότερα αιτήματα από ό, τι απάντησε.
“Όλα τα εργαλεία είναι συνεχώς πιο πιθανό να δώσουν μια λανθασμένη απάντηση από την αναγνώριση των περιορισμών”, εξηγεί η έκθεση.
Τα επίπεδα που πληρώνονται δεν είναι πιο αξιόπιστα
Ενώ τα μοντέλα premium-class, όπως η αναζήτηση Grok-3 και η Nemplexity Pro, απάντησαν πιο σωστά από τις ελεύθερες εκδόσεις, έδωσαν ακόμα πιο εμπιστευτικές απαντήσεις, γεγονός που αμφισβήτησε την αξία των συχνά εξόδων αστρονομικών συνδρομών τους.
“Αυτή η αντίφαση οφείλεται κυρίως [the bots’] Η τάση να παρέχει τελικές, αλλά λανθασμένες απαντήσεις και να μην αρνηθεί την άμεση απάντηση στην ερώτηση “, εξηγεί η έκθεση”.
Επίσης: Μην εμπιστεύεστε την αναζήτηση για το chatgpt και σίγουρα ελέγξτε όλα όσα σας λέει
“Αυτή η μη κερδοφόρα εμπιστοσύνη δίνει στους χρήστες μια δυνητικά επικίνδυνη ψευδαίσθηση αξιοπιστίας και ακρίβειας”, πρόσθεσε η έκθεση.
Παραγωγή συνδέσμων
Τα μοντέλα AI είναι γνωστά τακτικά ψευδαισθήσεις. Όμως, ενώ όλα τα chat -bots είναι ψευδαισθημένα ψευδή άρθρα στις απαντήσεις τους, το ρυμουλκό διαπίστωσε ότι τα δίδυμα και ο Grocus 3 το έκαναν περισσότερο – περισσότερο από το ήμισυ του χρόνου. “Ακόμη και όταν ένας λόφος καθορίζει σωστά το άρθρο, συνδέεται συχνά με την παραγωγή URL”, αναφέρει η έκθεση, πράγμα που σημαίνει ότι ο λόφος θα μπορούσε να βρει το σωστό όνομα και τον εκδότη, αλλά στη συνέχεια έκανε έναν πραγματικό σύνδεσμο στο άρθρο.
Η ανάλυση των δεδομένων της κυκλοφορίας ComScore χρησιμοποιώντας το Generative AI στο Τμήμα Ειδήσεων, η πρωτοβουλία του Πανεπιστημίου Βόρειας Βόρειας, επιβεβαιώνει αυτό το μοντέλο. Η μελέτη τους για τα δεδομένα από τον Ιούλιο έως τον Νοέμβριο του 2024 έδειξε ότι το ChatGPT δημιούργησε 205 σπασμένες διευθύνσεις URL στις απαντήσεις της. Ενώ οι δημοσιεύσεις απομακρύνονται μερικές φορές από ιστορίες, οι οποίες μπορούν να οδηγήσουν σε 404 σφάλματα, οι ερευνητές σημείωσαν ότι, με βάση την απουσία αρχειακών δεδομένων, είναι πιθανό ότι το μοντέλο έχει ψευδαισθήσεις σύνδεσης με έγκυρα πρακτορεία ειδήσεων όταν απαντά στα αιτήματα των χρηστών.
Επίσης: Αυτό το γελοία απλό τέχνασμα απενεργοποιεί το AI στα αποτελέσματα της αναζήτησης στο Google
Τα αποτελέσματα ανησυχούν, δεδομένης της αυξανόμενης υιοθέτησης των μηχανών αναζήτησης. Παρά το γεγονός ότι δεν έχουν ακόμη αντικαταστήσει τις παραδοσιακές μηχανές αναζήτησης, η Google κυκλοφόρησε την AI την περασμένη εβδομάδα, η οποία αντικαθιστά τη συνήθη αναζήτηση για το bot chat (παρά την άψογη αντιδραστικότητα των αναθεωρήσεων του AI). Λαμβάνοντας υπόψη ότι περίπου 400 εκατομμύρια χρήστες ρέουν στην CATGPT Weekly, η αναξιοπιστία και η παραμόρφωση των προσφορών της καθιστούν το ChatGPT και άλλα δημοφιλή εργαλεία για τους τεχνητές μηχανές διαταραχής των δυνητικών πληροφοριών, παρόλο που παίρνουν δουλειά από τους καλυμμένους, αυστηρά ελεγχόμενους πραγματικούς ιστότοπους ειδήσεων.
Η έκθεση Tugboat κατέληξε στο συμπέρασμα ότι τα εργαλεία τεχνητής νοημοσύνης είναι λανθασμένα παραβιασμένες από πηγές ή αντιπροσωπεύουν εσφαλμένα το έργο τους, το οποίο μπορεί να έχει δυσάρεστες συνέπειες για τη φήμη των εκδότη.
Αγνοώντας τους μπλοκαρισμένους σαρωτές
Αυτή η είδηση επιδεινώνεται για τους εκδότες: Μια αναφορά σχετικά με τη ρυμούλκηση στην Κολομβία διαπίστωσε ότι πολλά bots chat μπορούν ακόμα να λάβουν άρθρα από εκδότες που μπλοκάρει τους σαρωτές τους χρησιμοποιώντας το πρωτόκολλο αποκλεισμού των ρομπότ (robots.txt. Παραδόξως, ωστόσο, η συνομιλία των περιόδων δεν θα μπορούσε να ανταποκριθεί σωστά σε αιτήματα σχετικά με ιστότοπους που τους επιτρέπουν να έχουν πρόσβαση στο περιεχόμενό τους.
“Το Proplexity Pro ήταν ο χειρότερος εγκληματίας από αυτή την άποψη, καθορίζοντας σωστά σχεδόν το ένα τρίτο της ενενήντα έκθεσης άρθρων στα οποία δεν θα έπρεπε να έχει πρόσβαση”, αναφέρει η έκθεση.
Επίσης: Οι πράκτορες τεχνητής νοημοσύνης δεν είναι μόνο βοηθοί: πώς αλλάζουν το μέλλον της εργασίας σήμερα
Αυτό υποδηλώνει ότι όχι μόνο οι εταιρείες ΑΙ εξακολουθούν να αγνοούν τη φήμη – από τότε που η αμηχανία και άλλοι πιάστηκαν πέρυσι – αλλά ότι οι εκδότες στους οποίους η συμφωνία με άδεια χρήσης δεν είναι εγγυημένη σωστά.
Η αναφορά της Κολούμπια είναι μόνο ένα από τα συμπτώματα ενός ευρύτερου προβλήματος. Η γενετική AI στην ειδησεογραφική έκθεση διαπίστωσε επίσης ότι τα bots chat σπάνια κατευθύνουν την κυκλοφορία σε ιστότοπους ειδήσεων που εξάγουν πληροφορίες (και, ως εκ τούτου, ανθρώπινη εργασία), από τις οποίες επιβεβαιώνουν και άλλες εκθέσεις. Από τον Ιούλιο έως τον Νοέμβριο του 2024, το 7% των κατευθύνσεων σε ειδησεογραφικούς χώρους μεταδόθηκαν σε αμηχανία, ενώ η ChATGPT μεταβλήθηκε σε μόλις 3%. Για σύγκριση, τα εργαλεία AI, κατά κανόνα, προτιμώμενοι εκπαιδευτικοί πόροι, όπως το Scribd.com, το Coursera και τα εργαλεία που συνδέονται με τα πανεπιστήμια, στέλνοντας το 30% της κυκλοφορίας στην πορεία τους.
Η κατώτατη γραμμή: Η αρχική αναφορά εξακολουθεί να είναι μια πιο αξιόπιστη πηγή ειδήσεων από ό, τι σπάει τα εργαλεία της τεχνητής νοημοσύνης. Να είστε βέβαιος να ελέγξετε όλους τους συνδέσμους πριν δεχτείτε αυτό που σας λένε ως γεγονός και μην ξεχάσετε να χρησιμοποιήσετε τις δικές σας δεξιότητες κριτικής σκέψης και τη ζωτικότητα των μέσων ενημέρωσης για να αξιολογήσετε τις απαντήσεις.