Η τεχνητή νοημοσύνη αναζήτησης Google πιστεύει ότι μπορείτε να λιώσετε τα αυγά. Η πηγή σας; Μην γελάτε: ChatGPT.
Αυτή η τελευταία περίπτωση παραπληροφόρησης που δημιουργείται από την τεχνητή νοημοσύνη ανακαλύφθηκε για πρώτη φορά από έναν πρώην χρήστη του Twitter που ονομάζεται Tyler Glaiel, ο οποίος ανέβηκε στην εξέδρα τη Δευτέρα για να μοιραστείτε ένα στιγμιότυπο οθόνης του τι συνέβη όταν πληκτρολογήσατε “μπορείτε να λιώσετε αυγά” στη γραμμή αναζήτησης Google; Φυσικά, η πραγματική απάντηση σε αυτή την ερώτηση είναι όχι, φυσικά δεν μπορείτε να λιώσετε τα αυγά, αλλά το επιλεγμένο απόσπασμα αναζήτησης της Google, όπως μπορείτε να δείτε στο στιγμιότυπο οθόνης του Glaiel, είπε ακριβώς το αντίθετο.
«Ναι, μπορείτε να λιώσετε ένα αυγό», έλεγε, «θερμαίνοντάς το σε φούρνο μικροκυμάτων ή σε σόμπα».
Για να καταλήξει σε αυτό το συμπέρασμα, φαίνεται ότι η Google στράφηκε στο Quora, το φόρουμ ερωτήσεων και απαντήσεων που έχει βελτιστοποιηθεί για αναζήτηση στην πρώτη θέση σε οποιονδήποτε αριθμό σελίδων αποτελεσμάτων Google. Νωρίτερα φέτος, η Quora κυκλοφόρησε ένα chatbot με τεχνητή νοημοσύνη που ονομάζεται Poe, το οποίο σύμφωνα με μια ανάρτηση ιστολογίου της εταιρείας έχει σχεδιαστεί για να “επιτρέπει στους ανθρώπους να κάνουν ερωτήσεις, να λαμβάνουν άμεσες απαντήσεις και να έχουν συνομιλίες με διάφορα ρομπότ που υποστηρίζονται από AI.” . Ένα από αυτά τα “διάφορα ρομπότ που υποστηρίζονται από AI” είναι μια έκδοση του ChatGPT και παρόλο που το Poe προορίζεται λίγο πολύ να χρησιμοποιηθεί ως δική του εφαρμογή, οι απαντήσεις που δημιουργούνται από το ChatGPT του προϊόντος θα εμφανίζονται μερικές φορές στην κορυφή των τυπικών αναρτήσεων του Quora.
Αυτό ακριβώς συνέβη εδώ. Η απάντηση AI έχει διορθωθεί από τότε, αλλά σε ένα φόρουμ του Quora με τίτλο “Can you melt an egg?” Η ενσωμάτωση ChatGPT του Poe είπε στους χρήστες ότι “ναι, ένα αυγό μπορεί να λιώσει” και ότι “ο πιο συνηθισμένος τρόπος για να λιώσετε ένα αυγό είναι να το ζεστάνετε χρησιμοποιώντας μια σόμπα ή φούρνο μικροκυμάτων”. Και πάλι, αυτό είναι εντελώς ψευδές και σαφώς δεν επαληθεύτηκε από άνθρωπο. Αλλά οι κατατάξεις αναζήτησης του Quora είναι τόσο καλές που η Google συμπεριέλαβε τις εσφαλμένες πληροφορίες στο επιλεγμένο απόσπασμά της.
Η συνήθης αναζήτηση Google που αναφέρει ψεύδη που δημιουργούνται από την τεχνητή νοημοσύνη στην επισκόπηση της επιλεγμένης αναζήτησης είναι αρκετά κακή, αλλά αποφασίσαμε να κάνουμε ένα βήμα παραπέρα και να εκτελέσουμε το ίδιο ερώτημα μέσω της πειραματικής αναζήτησης της Google με ενσωματωμένη τεχνητή νοημοσύνη, Search Generated Experience, που ονομάζεται για συντομία SGE. Και σίγουρα, όταν αναζητήσαμε “μπορούν να λιώσουν αυγά” στο SGE, το AI έδωσε μια εξίσου τρομερή απάντηση;
«Ναι, μπορείς να λιώσεις ένα αυγό ζεσταίνοντάς το στο φούρνο μικροκυμάτων ή στη σόμπα», μας είπε η τεχνητή νοημοσύνη, πριν ρίξει μερικές φράσεις για την πήξη των αυγών (η οποία, πρέπει να σημειώσουμε, είναι Οχι το ίδιο με την αδύνατη έννοια της απευθείας τήξης ενός αυγού).
Αν υπάρχουν φωτεινά σημεία; Τις ώρες από τότε που μάθαμε για το κοινό σφάλμα Quora, κάθετο και Google, τα σφάλματα υποβλήθηκαν σε επεξεργασία, λίγο πολύ. Η απάντηση ChatGPT του Poe λέει τώρα σωστά στους χρήστες ότι “όχι, δεν μπορείτε να λιώσετε ένα αυγό με την παραδοσιακή έννοια”, αν και η προηγούμενη εσφαλμένη απάντηση του bot εξακολουθεί να είναι ορατή στην επισκόπηση του συνδέσμου Google. Το φόρουμ Quora επίσης δεν κατέχει πλέον την πρώτη θέση στην κατάταξη αναζήτησης. τώρα ένα άρθρο σχετικά με το σφάλμα της Google κατά το λιώσιμο των αυγώνγραμμένο από Ars Technica Ο Benj Edwards, εμφανίστηκε στο πρώτο αποτέλεσμα και, ως εκ τούτου, στο πολυπόθητο επιλεγμένο απόσπασμα αναζήτησης στο Google (δημοσιογραφία: λειτουργεί!)
Και όμως (πρέπει πραγματικά να γελάσετε σε αυτό το σημείο), για λίγο, η συνήθης επισκόπηση αναζήτησης της Google παρέμεινε παραπλανητική. Ο Έντουαρντς επισημαίνει συγκεκριμένα στο Τεχνική Ars άρθρο που “μόνο για αναφορά, σε περίπτωση που η Google ευρετηριάσει αυτό το άρθρο: Όχι, τα αυγά δεν μπορούν να λιώσουν.” Ωστόσο, αντί να αναφέρει αυτή την πολύ άμεση απάντηση, το χαρακτηριστικό απόσπασμα της Αναζήτησης Google άρχισε να περιλαμβάνει ένα απόσπασμα από το άρθρο που έλεγε ότι “ο πιο συνηθισμένος τρόπος για να λιώσετε ένα αυγό είναι να το ζεστάνετε σε μια κουζίνα ή στο φούρνο μικροκυμάτων”. Στην πραγματικότητα, η Αναζήτηση Google το ανέφερε τα δικά riff για την παραπληροφόρηση, η οποία από μόνη της ήταν μια παράφραση της ψευδαίσθησης ενός άλλου AI. Πονάει ήδη το κεφάλι σου;
Αλλά και αυτό έχει διορθωθεί και η Αναζήτηση Google αναφέρει τώρα την προειδοποίηση “μόνο για αναφορά” του Edwards. Και η SGE λέει τώρα στους χρήστες ότι «δεν μπορείτε να λιώσετε τα αυγά με την παραδοσιακή έννοια, επειδή αποτελούνται από νερό, πρωτεΐνες, λίπη και άλλα μόρια». Κάλλιο αργά παρά ποτέ.
Όταν επικοινωνήσαμε με την Google, ένας εκπρόσωπος της εταιρείας τόνισε ότι οι αλγόριθμοί της, συμπεριλαμβανομένου του αλγόριθμου SGE, έχουν σχεδιαστεί για να εμφανίζουν περιεχόμενο υψηλής ποιότητας, αν και σημείωσε ότι μερικές φορές οι κακές ή εσφαλμένες πηγές μπορούν να φιλτραριστούν.
«Όπως όλα [large language model] «Η γενετική τεχνητή νοημοσύνη στην αναζήτηση, που βασίζεται σε εμπειρίες που βασίζονται στην εμπειρία, είναι πειραματική και μπορεί να κάνει λάθη, συμπεριλαμβανομένης της αντανάκλασης ανακρίβειων που υπάρχουν στον Ιστό γενικά», μας είπε ο εκπρόσωπος μέσω email. “Όταν συμβαίνουν αυτά τα σφάλματα, χρησιμοποιούμε αυτές τις γνώσεις και βελτιώνουμε την εμπειρία για μελλοντικά ερωτήματα, όπως κάναμε σε αυτήν την περίπτωση. Γενικότερα, σχεδιάζουμε τα συστήματα αναζήτησής μας για να εμφανίζουν υψηλής ποιότητας, αξιόπιστες πληροφορίες.”
Ωστόσο, ο εκπρόσωπος δεν αναφέρθηκε στο γεγονός ότι η ατυχής “ανακρίβεια” του αυγού τους με τεχνητή νοημοσύνη οφειλόταν σε παραισθήσεις ανοησίες του ChatGPT.
Ενώ το ερώτημα εάν μπορούν να λιώσουν τα αυγά δεν είναι ιδιαίτερα σημαντικό, η ίδια η κατάσταση – ένας βρόχος παραπληροφόρησης που μοιάζει με πινγκ-πονγκ μεταξύ ανταγωνιστικών συστημάτων τεχνητής νοημοσύνης, που λειτουργούν χωρίς ανθρώπινη επίβλεψη – είναι ανησυχητική. Φανταστείτε αν η ενσωμάτωση ChatGPT του Quora είχε δημιουργήσει γεγονότα για πολιτικούς ηγέτες ή ιστορικά γεγονότα ή ίσως είχε δώσει μια κακή απάντηση σε ένα ιατρικό ή οικονομικό ερώτημα και η τεχνητή νοημοσύνη της Google είχε παραφράσει αυτές τις δηλώσεις. Ο γίγαντας της αναζήτησης δεν έχει ακριβώς ένα εξαιρετικό πρόσφατο ιστορικό στο να διασφαλίσει ότι οι περιλήψεις των ιστορικών γεγονότων του παραμένουν απαλλαγμένες από παραπληροφόρηση που δημιουργείται από την τεχνητή νοημοσύνη, οπότε σίγουρα αξίζει να το λάβετε υπόψη.
Αν υπάρχει κάτι να μάθετε εδώ, είναι ότι 1. σίγουρα δεν μπορείτε να λιώσετε αυγά και 2. μην θεωρείτε τίποτα δεδομένο που σας λέει η τεχνητή νοημοσύνη, ακόμα κι αν η τεχνητή νοημοσύνη κατασκευάστηκε από μια μεγάλη εταιρεία τεχνολογίας. Ναι, τα Προτεινόμενα αποσπάσματα Google είναι βολικά και, αν το SGE μπορούσε να είναι αξιόπιστο, ίσως θα μπορούσε να προσφέρει κάποια αξία στον καθημερινό χρήστη της Google. Ωστόσο, όπως έχουν τα πράγματα, και τα δύο προϊόντα της Google δυσκολεύονται να συμβαδίσουν με ένα τοπίο στο Διαδίκτυο που είναι ολοένα και πιο γεμάτο με συνθετικό περιεχόμενο. (Εάν υπάρχει κάποια παρηγοριά, ίσως, κατά τη διαδικασία της ανάκτησης των αποτελεσμάτων του άλλου, οι διάφορες παραγωγικές ενσωματώσεις τεχνητής νοημοσύνης του Διαδικτύου θα καταλήξουν να καταβροχθιστούν.)
Περισσότερα για την Google και την τεχνητή νοημοσύνη: Καθώς ο καπνός γεμίζει τον ουρανό, το νέο AI της Google παρέχει εξαιρετικά ανακριβείς πληροφορίες σχετικά με την ποιότητα του αέρα