Demonstrația lui Mark Zuckerberg pentru ochelarii Meta Ray-Ban Display la sediul Meta din Silicon Valley a fost marcată de două eșecuri ale prezentărilor live. Dispozitivul, care promite să ofere asistenți inteligenți capabili să acționeze în numele utilizatorului, a întâmpinat dificultăți în a ghida și a executa acțiuni simple.

Prezentarea a început bine, cu Zuckerberg arătând o vedere live prin ochelari și trimițând răspunsuri scurte la mesaje cu mici mișcări ale încheieturii. Apoi, creatorul culinar Jack Mancuso a urcat pe scenă pentru a testa funcția LiveAI, dar asistentul a „sărit” printre etape și a devenit vizibil confuz.

Eșecul acestor prezentări live a pus sub semnul întrebării maturitatea software-ului la lansare, mai ales că vorbim despre un produs premium, de 799 de dolari. Meta a poziționat această generație de ochelari ca întruchipare a unei noi paradigme, „agentic AI”, în care asistentul nu doar răspunde, ci anticipează și execută.

Zuckerberg a încercat să întoarcă momentul în favoarea sa, prezentând eșecul ca pe un risc asumat al inovației live și reafirmând viziunea Meta: asistenți purtabili care să preia sarcini mărunte, să citească contextul și să rezume, în timp real, lumea din jur. Dacă Meta va livra rapid corecții de stabilitate, latență și robustețe la rețele aglomerate, greșelile din demo pot rămâne o notă de subsol într-o lansare altfel importantă.

Pentru a înțelege mai bine impactul acestor eșecuri, este important să urmărim evoluțiile și actualizările viitoare ale ochelarilor Meta Ray-Ban Display și să ne informăm continuu despre performanța și fiabilitatea lor. Monitorizarea acestor dezvoltări ne va ajuta să evaluăm potențialul și limitările tehnologiilor emergente, precum „agentic AI”, și să înțelegem mai bine cum pot fi integrate în viața noastră de zi cu zi.