Προσοχή στην AI: Πώς η AI μπορεί να σε οδηγήσει σε ανύπαρκτους προορισμούς

Η χρήση AI για ταξιδιωτικό προγραμματισμό οδηγεί συχνά σε φανταστικούς ή ανακριβείς προορισμούς - Ειδικοί προειδοποιούν για τους κινδύνους παραπληροφόρησης, ενώ γίνονται διεθνείς προσπάθειες ρύθμισης

Μια ανύπαρκτη πόλη στο Περού, ένας Πύργος του Άιφελ στο Πεκίνο: όλο και περισσότεροι ταξιδιώτες καταφεύγουν σε εργαλεία όπως το ChatGPT για να αντλήσουν ιδέες διαδρομών – και καταλήγουν σε μέρη που δεν υπάρχουν.

Ο Μιγκέλ Άνχελ Γκονγκόρα Μέζα, ιδρυτής της Evolution Treks Peru, προετοίμαζε μια πεζοπορία στις Άνδεις όταν άκουσε δύο τουρίστες να μιλούν για το «Ιερό Φαράγγι του Humantay». Όμως το μέρος δεν υφίσταται: ήταν προϊόν συνδυασμού διαφορετικών τοποθεσιών, οδηγώντας τους ταξιδιώτες να πληρώσουν 160 δολάρια για μια διαδρομή χωρίς προορισμό. Ο ίδιος προειδοποίησε ότι τέτοιες πληροφορίες μπορεί να αποβούν επικίνδυνες, αφού το υψόμετρο, οι καιρικές συνθήκες και η προσβασιμότητα απαιτούν προσεκτικό σχεδιασμό.

Σε λίγα χρόνια, τα εργαλεία AI όπως ChatGPT, Microsoft Copilot και Google Gemini έγιναν βασικό κομμάτι ταξιδιωτικού προγραμματισμού. Έρευνες δείχνουν ότι το 30% των ταξιδιωτών τα χρησιμοποιούν ήδη, αν και αρκετοί καταλήγουν σε λάθη ή απογοητεύσεις. Χαρακτηριστική είναι η περίπτωση ζευγαριού στην Ιαπωνία που, εμπιστευόμενο το ChatGPT, βρέθηκε αποκλεισμένο στην κορυφή του Όρους Misen λόγω λανθασμένων πληροφοριών για τα δρομολόγια του τελεφερίκ.

Ανάλογα παραδείγματα δεν λείπουν: το Layla είχε παρουσιάσει ανύπαρκτο Πύργο του Άιφελ στο Πεκίνο, ενώ άλλοι χρήστες διαπίστωσαν ότι οι διαδρομές που προτάθηκαν από AI δεν είχαν συνοχή. Σύμφωνα με έρευνα του 2024, το 37% των ταξιδιωτών έκρινε τις απαντήσεις ανεπαρκείς και το 33% ανέφερε ψευδείς πληροφορίες.

Οι ειδικοί εξηγούν ότι τα γλωσσικά μοντέλα δημιουργούν λέξεις που φαίνονται λογικές, χωρίς να έχουν αληθινή κατανόηση του κόσμου. Έτσι εμφανίζονται οι λεγόμενες «παραισθήσεις» της AI: φανταστικά δεδομένα που παρουσιάζονται ως πραγματικά. Αυτό προκαλεί σύγχυση στους ταξιδιώτες, οι οποίοι δεν μπορούν να διακρίνουν αν η πληροφορία είναι ακριβής.

Η παραπληροφόρηση μέσω AI επηρεάζει και την αντίληψή μας για την πραγματικότητα. Παραδείγματα περιλαμβάνουν βίντεο στο TikTok ή στο YouTube που παρουσιάζουν ανύπαρκτα τοπία ή αλλοιωμένες εικόνες χωρίς τη γνώση των δημιουργών τους. Η Netflix επίσης κατηγορήθηκε για χρήση AI σε «ανακατασκευές» σειρών, που παραμόρφωσαν τα πρόσωπα ηθοποιών.

Η ψευδής αφήγηση για έναν προορισμό πριν ακόμη ξεκινήσει το ταξίδι, σύμφωνα με τον ψυχοθεραπευτή Χαβιέ Λαμπούρτ, ακυρώνει τα οφέλη της προσωπικής εμπειρίας και της γνωριμίας με διαφορετικούς πολιτισμούς. Ο ίδιος ανησυχεί ότι η χρήση AI μπορεί να αποδυναμώσει τη μοναδική συμβολή του ταξιδιού στην ψυχική υγεία και την ενσυναίσθηση.

Η ΕΕ και οι ΗΠΑ εξετάζουν ρυθμίσεις όπως υδατογραφήματα που θα δείχνουν πότε μια εικόνα έχει δημιουργηθεί από AI. Όμως, σύμφωνα με τον καθηγητή Ραγίντ Γκάνι, η μετρίαση είναι πιο εφικτή από την πρόληψη. Ακόμη και η Google παραδέχεται ότι οι «παραισθήσεις» ίσως αποτελούν μόνιμο χαρακτηριστικό της τεχνολογίας.

Ο Γκάνι συνιστά προσοχή, επαλήθευση και ρεαλιστικές προσδοκίες: εάν μια πρόταση φαίνεται υπερβολικά τέλεια, καλό είναι να διασταυρωθεί. Για τον Λαμπούρτ, το κλειδί είναι η ευελιξία – να βλέπεις την απογοήτευση ως εμπειρία και να εκμεταλλεύεσαι το ταξίδι, ό,τι κι αν συμβεί.

Πηγή: newmoney.gr

Διαβάστε επίσης: Σε αδιέξοδο ο Μακρόν: Η τελευταία αποστολή του Λεκορνί και η διορία των 48 ωρών

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΑ