ThinkRoot

bine ați navigat pe insula mea de pe internet

Chiar și Microsoft recunoaște că nu poți avea încredere în Copilot

Săptămâna trecută a circulat pe internet o captură din termenii de utilizare ai Microsoft Copilot, care a stârnit destul de multă atenție, deși documentul în sine nu este deloc nou - ultima actualizare a acestuia datează de la sfârșitul anului 2025. Ce scrie acolo este suficient de direct ca să merite citit cu atenție: „Copilot este destinat exclusiv scopurilor de divertisment. Poate face greșeli și este posibil să nu funcționeze conform așteptărilor. Nu te baza pe Copilot pentru sfaturi importante. Folosești Copilot pe propriul risc."

Dacă ești obișnuit să urmărești știrile din lumea tehnologiei, probabil că nu ești surprins de această formulare. Microsoft a recunoscut de mai multe ori, inclusiv la demonstrații publice, că Copilot poate greși și că orice rezultat produs de el trebuie verificat de un om înainte de a fi folosit. Problema nu este că un asistent cu inteligență artificială face greșeli - toate o fac, ci că în același timp companiile care le vând le prezintă ca pe niște instrumente revoluționare care îți transformă complet felul în care lucrezi.

Există ceva profund contradictoriu în a promova un produs ca pe un geniu digital integrat în calculatorul tău și a scrie în termenii de utilizare că este doar pentru distracție și că nu ar trebui să te bazezi pe el pentru nimic important. Această contradicție nu este un accident sau o neglijență juridică - este o strategie deliberată prin care companiile se protejează de răspundere, lăsând în același timp marketingul să promită lucruri pe care produsul nu le poate garanta.

Articolul din The Register menționează și o observație interesantă făcută de un utilizator pe Hacker News: termenii de utilizare ai Anthropic pentru planurile Pro și Max, atunci când sunt accesați dintr-o adresă IP europeană, conțin o clauză prin care se specifică explicit că serviciul nu poate fi folosit în scopuri comerciale sau profesionale, iar compania nu își asumă nicio răspundere pentru pierderi de profit sau întreruperi de activitate. Cu alte cuvinte, un plan numit „Pro" nu poate fi folosit în mod profesional dacă ești din Europa. Publicația a verificat și a confirmat că această diferență există cu adevărat în funcție de locul din care accesezi documentul.

Situația aceasta ilustrează destul de bine cum stau lucrurile cu instrumentele de inteligență artificială în general: companiile colectează bani frumoși din abonamente lunare, construiesc ecosisteme întregi în jurul acestor produse și le împing în tot felul de fluxuri de lucru profesionale, dar când vine vorba de răspundere juridică, toate se transformă brusc în jucării de distracție fără nicio garanție. Nu spun că aceste instrumente sunt inutile - le folosesc și eu și, în anumite situații, sunt cu adevărat de ajutor - dar există o diferență mare între a folosi un chatbot ca pe un punct de plecare pentru ceva pe care îl verifici tu mai departe și a te baza pe el pentru decizii importante.

Tocmai de aceea mi se pare sănătos că termenii aceștia au ieșit la suprafață și au stârnit discuții. Nu pentru că ar fi ceva scandalos în ei, ci pentru că ne amintesc că textul pe care îl sărim de obicei când bifăm „Am citit și sunt de acord" conține uneori informații relevante despre ce cumpărăm de fapt. În cazul de față, Microsoft îți spune destul de clar, dacă te obosești să citești: produsul acesta este pentru distracție, poate greși și folosirea lui este pe riscul tău.

⬅ The one before
A subscription-free digital life

Up next ➡
Why do people pirate?