Του Robert Hart
Η Google ανακοίνωσε την Πέμπτη ότι περιορίζει τα αποτελέσματα που παράγονται από τη νέα μηχανή αναζήτησης τεχνητής νοημοσύνης αφού το συγκεκριμένο εργαλείο κατέληξε σε "περίεργες, ανακριβείς ή μη χρήσιμες" απαντήσεις που έγιναν viral στα μέσα κοινωνικής δικτύωσης.
Αυτή είναι η πιο πρόσφατη αναποδιά για τον κολοσσό της αναζήτησης καθώς είχε προηγηθεί νωρίτερα φέτος το εργαλείο δημιουργίας εικόνων με χρήση ΤΝ (AI image generator) που παρήγαγε ιστορικά ανακριβή αποτελέσματα.
Η επικεφαλής αναζήτησης της Google, Λιζ Ρέιντ ανέφερε σε μια ανάρτηση της ότι η εταιρεία θα περιορίσει τη χρήση του εργαλείου αναζήτησης τεχνητής νοημοσύνης, AI Overviews, που πρόσφατα παρουσιάστηκε και θα εφαρμόσει πρόσθετα προστατευτικά μέτρα στην τεχνολογία μετά την αυτόματη παρουσίαση του σε χρήστες στις ΗΠΑ πριν από δύο εβδομάδες.
Το εργαλείο, που έχει σχεδιαστεί για να βελτιώσει τα αποτελέσματα της αναζήτησης, χρησιμοποιεί γενετική τεχνητή νοημοσύνη για τη σύνοψη των ερωτημάτων αναζήτησης στην κορυφή της σελίδας αποτελεσμάτων και παρόλο που η Ρέιντ είπε ότι η εφαρμογή είναι μια πολύτιμη προσθήκη στο Google Search, αναγνώρισε ότι αρκετές αποτυχίες έγιναν viral στα μέσα κοινωνικής δικτύωσης - η μηχανή αναζήτησης είπε σε ανθρώπους να φάνε πέτρες, να βάλουν κόλλα στις πίτσες τους αλλά και ότι ο Μπαράκ Ομπάμα ήταν μουσουλμάνος, για να απαριθμήσω μερικές - που έδειξαν ξεκάθαρα ότι υπάρχουν περιθώρια για βελτίωση.
Η Ρέιντ ανέφερε ακόμα ότι η Google είχε ενημερώσει τα συστήματά της ώστε να περιορίζεται η χρήση περιεχομένου που έχει δημιουργηθεί από χρήστες - όπως σε μέσα κοινωνικής δικτύωσης και σε αναρτήσεις σε φόρουμ - καθώς αυτό το περιεχόμενο είναι πιο πιθανό να οδηγήσει σε "παραπλανητικές συμβουλές".
Ο κολοσσός της αναζήτησης θα σταματήσει προσωρινά την τεχνητή νοημοσύνη από το να εμφανίζει αποτελέσματα σε θέματα αυξημένου ενδιαφέροντος, ιδίως σε ερωτήματα που σχετίζονται με την υγεία, ενώ θα περιορίσει τις απαντήσεις σε "ανόητες", χιουμοριστικές και σατιρικές ερωτήσεις που φαίνεται να έχουν σχεδιαστεί για να προκαλούν μη σοβαρές απαντήσεις.
Η εταιρεία έχει επίσης "προσθέσει περιορισμούς για ερωτήματα όπου οι επισκοπήσεις της τεχνητής νοημοσύνης δεν αποδείχθηκαν εξίσου χρήσιμες", ανέφερε προσθέτοντας ότι η Google έχει "κάνει περισσότερες από δώδεκα τεχνικές βελτιώσεις" συνολικά.
Παρά τα προβλήματα αυτά, η Ρέιντ υπερασπίστηκε το AI Overviews αναφέροντας ότι οδήγησε σε "μεγαλύτερη ικανοποίηση" μεταξύ των χρηστών και των ανθρώπων που κάνουν "πιο μακροχρόνιες, πιο σύνθετες ερωτήσεις στις οποίες γνωρίζουν ότι η Google μπορεί τώρα να βοηθήσει".
Η Google, μακράν η πιο δημοφιλής μηχανή αναζήτησης στον κόσμο, κυκλοφόρησε το AI Overviews σε χρήστες στις ΗΠΑ νωρίτερα αυτόν τον μήνα. Η παρουσίαση του - που βγάζει χαμηλότερα τους τυπικούς συνδέσμους που σχετίζονται με ένα αποτέλεσμα αναζήτησης στη σελίδα μετά την απάντηση που δημιούργησε η τεχνητή νοημοσύνη - ήταν αυτόματη και καθώς το εργαλείο δεν μπορούσε να απενεργοποιηθεί, προκάλεσε αντιδράσεις μεταξύ των χρηστών.
Μεγαλύτερη ανησυχία για την Google προκάλεσαν οι ανακριβείς, παράξενες και μερικές φορές εντελώς γελοίες απαντήσεις που άρχισαν να διαδίδονται και στα μέσα κοινωνικής δικτύωσης, όπως ανακριβείς ήταν και κάποιες εικόνες του εργαλείου AI Gemini νωρίτερα φέτος.
Ωστόσο, ενώ πολλές από τις απαντήσεις που έγιναν viral στα μέσα κοινωνικής δικτύωσης ήταν αυθεντικές, ένας μεγάλος αριθμός δεν ήταν. Από τους ελέγχους που έγιναν στη συνέχεια απορρίφθηκαν πολλές επεξεργασμένες ή πλαστές απαντήσεις που είχαν διαδοθεί στα μέσα κοινωνικής δικτύωσης, όπως απαντήσεις που ανέφεραν ότι οι γιατροί συνιστούν στις εγκύους να καπνίζουν 2-3 τσιγάρα την ημέρα, η προτροπή σε καταθλιπτικούς χρήστες να πηδήξουν από τη γέφυρα Golden Gate και η παροχή οδηγιών για αυτοτραυματισμό. Η Ρέιντ ανέφερε πως η Google ενθαρρύνει "οποιονδήποτε καταλήξει σε τέτοια αποτελέσματα να κάνει μόνος του μια αναζήτηση για να τα ελέγξει".
Πολλά από τα περίεργα αποτελέσματα οφείλονται σε ένα "κενό δεδομένων" ή "κενό πληροφοριών", εξήγησε η ίδια, από περιοχές όπου υπάρχουν ελάχιστες αξιόπιστες πληροφορίες, πράγμα που σημαίνει ότι σατιρικό περιεχόμενο μπορεί τελικά να ξεγλιστρήσει.