În ultimii ani, instrumentele de inteligență artificială (AI) precum ChatGPT, Microsoft Copilot și Google Gemini au devenit parte integrantă a planificării călătoriilor, fiind utilizate de aproximativ 30 % dintre călătorii internaționali pentru a-și organiza itinerariile. Acest fenomen a generat atât avantaje, cât și dificultăți, iar utilizatorii trebuie să fie conștienți de limitările AI în contextul turistic.

Informații insuficiente sau false
Un sondaj din 2024 arată că 37 % dintre respondenții care au folosit AI pentru planificarea călătoriilor consideră că informațiile primite sunt incomplete, iar 33 % raportează prezența datelor eronate. Principala cauză este modul în care modelele lingvistice generează răspunsuri, combinând fragmente de text fără a verifica veridicitatea.

– 37 % semnalează informații insuficiente
– 33 % identifică date false
– Halucinațiile AI apar frecvent în recomandări de destinații

Expertul Rayid Ghani, profesor de învățare automată la Carnegie Mellon, subliniază că AI „cunoaște doar cuvinte” și poate produce răspunsuri care par realiste, dar care conțin erori. Astfel, utilizatorii trebuie să verifice fiecare detaliu, în special când se referă la locații necunoscute.

Blocați pe vârf de munte
Un exemplu recent îl reprezintă cuplul Dana Yao și soțul, care a folosit ChatGPT pentru a planifica o drumeție pe insula Itsukushima. AI a indicat un orar incorect al telecabinei, lăsând călătorii blocați în vârful muntelui. Un alt incident raportat de Fast Company implică un cuplu care a căutat o telecabină din Malaezia pe baza unui videoclip generat integral de AI, descoperind că structura nu există. Aceste cazuri ilustrează riscurile halucinațiilor AI în turism.

De la relaxare la stres
Psihoterapeutul Javier Labourt avertizează că informațiile eronate pot diminua beneficiile călătoriilor pentru sănătatea mintală. Când AI furnizează date inexacte, turiștii pot ajunge să experimenteze situații stresante, contracarând efectele pozitive ale interacțiunii culturale și ale descoperirii de noi perspective.

Încercări de reglementare
Autoritățile din UE și SUA propun măsuri pentru a marca conținutul generat de AI, cum ar fi filigrane digitale. Deși aceste inițiative pot ajuta la identificarea imaginilor și videoclipurilor modificate, ele nu rezolvă problema halucinațiilor în timpul conversațiilor cu chatboturi. CEO-ul Google, Sundar Pichai, recunoaște că halucinațiile sunt o caracteristică inerentă a modelelor mari de limbaj și recomandă utilizatorilor să formuleze întrebări precise și să verifice sursele.

Recomandări practice pentru utilizatorii de AI în călătorii
– Formulează întrebări cât mai specifice
– Verifică informațiile pe site‑uri oficiale sau ghiduri locale
– Folosește mai multe surse pentru confirmare
– Evită să te bazezi exclusiv pe recomandări generate de AI

În contextul evoluției rapide a tehnologiei, informarea continuă și monitorizarea actualizărilor privind inteligența artificială rămân esențiale pentru o planificare a călătoriilor sigură și eficientă.