Microsoft a actualizat termenii de utilizare ai copilului său AI, Copilot, după ce aceștia au stârnit controverse în mediul online. În ziua de 24 octombrie 2025, documentul a fost modificat pentru a adăuga avertismente privind utilizarea rezultatelor generate de acest sistem. Aceste schimbări au venit în contextul în care compania încearcă să convingă clienții corporativi să plătească pentru serviciile noului produs.
Deși Microsoft promovează Copilot ca un instrument de asistare, termenii de utilizare actualizați precizează clar că acesta ar trebui folosit doar pentru divertisment. În comunicat, compania afirmă: „Copilot este destinat exclusiv divertismentului”. În document, se adaugă faptul că “poate face greșeli și s-ar putea să nu funcționeze așa cum este prevăzut” și se recomandă utilizatorilor să nu se bazeze pe el pentru sfaturi importante.
Criticii și utilizatorii de pe rețelele sociale au reacționat rapid, punând sub semnul întrebării transparența companiei în ceea ce privește limitările produsului. Critica principală vizează faptul că termenii de utilizare pot induce în eroare utilizatorii, sugerând că produsul este mai sigur și mai fiabil decât în realitate.
Microsoft însă a anunțat că va face modificări la formularea acestor avertismente. Un purtător de cuvânt al companiei a declarat pentru PCMag că „va actualiza ceea ce a descris drept limbaj învechit”, adăugând că pe măsură ce modul de utilizare al Copilot s-a schimbat, și termenii de utilizare vor fi ajustați. Acest proces de actualizare e pentru a reflecta mai exact modul în care clienții utilizează sistemul și pentru a evita eventuale confuzii.
Microsoft nu este singura companie care a adoptat această abordare de a avertiza utilizatorii în privința rezultatelor generate de inteligența artificială. Alte jucători importanți în domeniu, precum OpenAI și xAI, au inclus avertismente similare în termenii de utilizare. OpenAI precizează că utilizatorii nu trebuie să considere rezultatele obținute ca fiind „singurul serviciu de adevăr sau informații factuale”, iar xAI avertizează că „nu ar trebui să se bazeze pe rezultatele generate pentru informații de încredere”.
Această tendință de a limita și clarifica responsabilitatea în utilizarea IA devine tot mai pregnantă în industrie. Practic, companiile încearcă să reducă riscul de responsabilitate juridică și să stabilească clar limitele functionalității acestor tehnologii emergente. În același timp, copleșitor de evident este faptul că aceste sisteme, oricât de avansate, nu pot înlocui precis și sigur expertiza umană.
Pentru utilizatori, mesaje precum cele ale Microsoft, OpenAI și xAI funcționează ca un memento asupra naturii sistemelor AI: capabile de greșeli și de rezultate care trebuie evaluate critic. În cazul Microsoft, aceste modificări ale termenilor de utilizare vor fi implementate în următoarea actualizare programată pentru începutul lunii noiembrie 2025.
