Pericolele AI în turism: cum trimit ChatGPT și alte programe turiștii în destinații inexistente și periculoase. Sfaturi utile

0
Publicat:

Un oraș imaginar în Peru, o versiune a Turnului Eiffel în Beijing: tot mai mulți călători folosesc instrumente precum ChatGPT pentru idei de itinerarii – și ajung la destinații care... nu există.

Ilustrație despre legătura dintre AI și călătorii Foto LinkedIn dms
AI în turism: util, dar doar dacă verifici informațiile Foto LinkedIn dms

Miguel Angel Gongora Meza, fondator și director al Evolution Treks Peru, se afla într-un sat rural peruan, pregătindu-se pentru o drumeție în Anzi, când a surprins o conversație ciudată. Doi turiști nepregătiți discutau cu entuziasm despre planurile lor de a merge singuri în munți spre așa-numitul „Canion Sacru Humantay”.

„Mi-au arătat captura de ecran, scrisă cu încredere și plină de adjective pitorești, dar nu era nimic adevărat. Nu există niciun Canion Sacru Humantay! Numele este o combinație între două locuri care nu au nicio legătură cu descrierea. Turistul a plătit aproape 160 de dolari pentru a ajunge pe un drum rural în apropierea satului Mollepata, fără ghid și fără o destinație clară”, a spus Gongora Meza, citat de BBC.

Mai mult, Gongora Meza a subliniat că această greșeală aparent inofensivă le-ar fi putut pune viața în pericol: „Acest tip de dezinformare este extrem de periculos în Peru. Altitudinea, schimbările climatice și accesibilitatea traseelor trebuie planificate cu atenție. Dacă folosești un program precum ChatGPT, care combină imagini și nume pentru a crea un fel de fantezie, te poți trezi la 4.000 de metri altitudine, fără oxigen și fără semnal la telefon”.

În rândurile următoare, vei afla cât de importantă este verificarea informațiilor furnizate de AI înainte de a pleca în călătorii, ca să eviți destinațiile inexistente sau periculoase, vei descoperi exemple reale de turiști care s-au confruntat cu „halucinațiile” inteligenței artificiale și sfaturi esențiale pentru a-ți planifica vacanțele în siguranță folosind tehnologia.

Pericolul AI în vacanțe: turiști prinși în destinații inexistente

În doar câțiva ani, instrumentele de inteligență artificială (AI) precum ChatGPT, Microsoft Copilot sau Google Gemini au trecut de la simplă curiozitate la un element integrant în planificarea vacanțelor pentru milioane de oameni. Potrivit unui sondaj, 30% dintre călătorii internaționali folosesc acum AI generativ și site-uri dedicate, precum Wonderplan sau Layla, pentru a-și organiza călătoriile.

Deși aceste programe pot oferi sfaturi de călătorie valoroase atunci când funcționează corect, ele pot și să conducă oamenii în situații frustrante sau chiar periculoase atunci când nu fac asta. Aceasta este o lecție pe care unii călători o învață pe pielea lor, ajungând la destinația „visată” doar pentru a descoperi că informațiile primite sunt inexacte sau că au fost direcționați către un loc care există doar în imaginația digitală a unui robot.

ChatGPT: cuplu blocat pe munte în Japonia din cauza indicațiilor greșite

Dana Yao și soțul ei au experimentat acest lucru recent. Cuplul a folosit ChatGPT pentru a-și planifica o drumeție romantică până în vârful Muntelui Misen, pe insula japoneză Itsukushima, la începutul acestui an. După ce au explorat fără probleme orașul Miyajima, au pornit la ora 15:00 spre vârf, pentru a ajunge la apus exact așa cum le indicase ChatGPT.

„Atunci a apărut problema, când eram gata să coborâm de la stația telecabinei. ChatGPT spunea că ultima cursă era la 17:30, dar în realitate telecabina deja se închisese. Așa că am rămas blocați în vârf”, a povestit Yao, creator de conținut și blogger de călătorii în Japonia.

O tânără din Spania, care și-a planificat vacanța cu ChatGPT în Puerto Rico, a ratat zborul după ce AI-ul i-a spus că nu are nevoie de autorizație ESTA, subliniind riscurile dezinformării generate de inteligența artificială.

AI inventează destinații: Turnul Eiffel în Beijing și trasee imposibile în Italia

Un articol BBC din 2024 a raportat că platforma Layla le-a spus utilizatorilor că există un Turn Eiffel în Beijing și a sugerat unui turist britanic un traseu de maraton prin nordul Italiei, complet nerealizabil. „Itinerariile nu aveau prea mult sens logic. Am fi petrecut mai mult timp în transport decât explorând efectiv locurile”, a povestit călătorul.

Potrivit unui sondaj din 2024, 37% dintre participanții care au folosit AI pentru planificarea călătoriilor au declarat că programul nu le-a oferit suficiente informații, iar aproximativ 33% au spus că recomandările generate de AI conțineau informații false.

Expert explică: ChatGPT combină cuvinte și inventează răspunsuri

Aceste probleme provin din modul în care AI generează răspunsurile. Conform lui Rayid Ghani, profesor de renume în învățarea automată la Carnegie Mellon University, deși programe precum ChatGPT par să ofere sfaturi raționale și utile, modul în care obțin aceste informații face ca niciodată să nu poți fi complet sigur că spun adevărul.

„Nu face diferența între sfaturi de călătorie, indicații sau rețete. Cunoaște doar cuvinte. Așa că el continuă să le îmbine pentru ca tot ceea ce spune să sune realist, iar aici apar multe dintre problemele de bază”, explică Ghani.

Modelele lingvistice mari, precum ChatGPT, funcționează prin analizarea unor colecții uriașe de texte și combinarea cuvintelor și frazelor astfel încât, statistic, să pară răspunsuri potrivite. Uneori oferă informații perfect corecte. Alteori, apar ceea ce experții în AI numesc „halucinații”, adică informații inventate. Deoarece programele prezintă halucinațiile și răspunsurile reale în același mod, utilizatorilor le este adesea greu să facă diferența între real și fals.

Destinații inventate de AI: Canionul Sacru și telecabina din Malaezia

În cazul „Canionului Sacru Humantay”, Ghani consideră că AI-ul a combinat pur și simplu câteva cuvinte care păreau potrivite pentru regiune. În mod similar, analiza tuturor acelor date nu oferă neapărat lui ChatGPT o înțelegere reală a lumii fizice. Programul ar putea confunda o plimbare lejeră de 4.000 m printr-un oraș cu o ascensiune de 4.000 m pe un munte – și asta chiar înainte să apară problema informațiilor eronate.

Un articol recent din Fast Company relata cazul unui cuplu care a plecat într-o drumeție spre o telecabină pitorească din Malaezia pe care o văzuseră pe TikTok, doar pentru a descoperi că o asemenea structură nu exista. Videoclipul urmărit fusese generat integral de AI, fie pentru a atrage vizualizări, fie din alte motive inexplicabile.

Cum schimbă AI percepția realității: exemple de la YouTube și Netflix

Astfel de incidente fac parte dintr-o tendință mai largă de implementare a AI, care poate să modifice subtil – sau mai puțin subtil – percepția noastră asupra lumii. Un exemplu recent a fost în august, când creatori de conținut au descoperit că YouTube folosea AI pentru a altera videoclipurile lor fără permisiune, modificând subtil lucruri precum hainele, părul sau chipurile persoanelor reale din clipuri. Netflix a fost și el criticat la începutul lui 2025 pentru utilizarea AI în „remasterizarea” vechilor sitcom-uri, ceea ce a creat distorsiuni bizare în chipurile actorilor îndrăgiți din anii ’80 și ’90. Pe măsură ce AI este folosit tot mai mult pentru astfel de modificări mici fără știrea noastră, granița dintre realitate și un univers AI perfect realizat începe să se estompeze și pentru călători.

„Halucinațiile” AI și călătoriile: cum afectează dezinformarea experiența turiștilor

Javier Labourt, psihoterapeut licențiat și promotor al efectelor pozitive ale călătoriilor asupra sănătății mentale și conexiunilor sociale, se îngrijorează că răspândirea acestor probleme ar putea anula beneficiile pe care călătoriile le oferă în mod natural. El consideră că o călătorie oferă o oportunitate unică de a interacționa cu oameni pe care altfel nu i-am întâlni și de a descoperi culturi diferite direct, ceea ce dezvoltă empatie și înțelegere. Dar atunci când „halucinațiile” AI oferă informații eronate, se creează o narațiune falsă despre un loc înainte ca turiștii să plece de acasă.

În prezent, există încercări de a reglementa modul în care AI prezintă informații utilizatorilor, inclusiv mai multe propuneri din partea UE și SUA pentru a include watermark-uri sau alte semne distinctive, astfel încât privitorii să știe când ceva a fost modificat sau generat de AI. Dar, potrivit lui Ghani, este o luptă dificilă: „Se depune mult efort pentru combaterea dezinformării: cum o detectezi? Cum ajuți oamenii să o identifice? Dar, astăzi, atenuarea efectelor este o soluție mai sigură decât prevenția”.

Dacă aceste reglementări vor fi adoptate, ar putea fi mai ușor pentru călători să detecteze imagini sau videoclipuri generate de AI. Însă noile reguli nu te vor ajuta atunci când un chatbot AI inventează ceva în mijlocul unei conversații.

Cum te protejezi de „halucinațiile” AI în planificarea călătoriilor: sfaturi esențiale pentru turiști

Experți, inclusiv CEO-ul Google, Sundar Pichai, au declarat că „halucinațiile” ar putea fi o caracteristică inerentă a modelelor lingvistice mari, precum ChatGPT sau Google Gemini. Prin urmare, singura metodă de protecție este să rămâi vigilent.

Un sfat al lui Ghani este să fii cât mai specific în întrebări și să verifici absolut totul. Totuși, el recunoaște că acest lucru este dificil în călătorii, deoarece turiștii întreabă adesea despre locuri pe care nu le cunosc. Dar dacă un instrument AI îți oferă o sugestie de călătorie care sună prea perfect, verific-o de două ori. În final, spune Ghani, timpul petrecut pentru verificarea informațiilor AI poate face procesul la fel de laborios ca planificarea clasică.

Pentru Labourt, cheia unei călătorii reușite – cu sau fără AI – este să ai mintea deschisă și să te adaptezi atunci când lucrurile merg prost: „Încearcă să îți direcționezi dezamăgirea altundeva decât spre ideea că ai fost păcălit. Dacă ești acolo, cum poți transforma situația? Oricum ești într-o călătorie faină, nu?”.

Călătorii

Top articole

Partenerii noștri


Ultimele știri
Cele mai citite