Microsoft está orgullosa de Copilot, o al menos eso es lo que muestra de cara al público, pero si miramos la letra pequeña no nos encontramos con un alto nivel de confianza. En los nuevos términos y condiciones de uso de Microsoft Copilot la compañía de Redmond dice claramente que "Copilot solo es una herramienta para entretenimiento", y reconoce que "puede cometer errores".
Como Copilot puede cometer errores, Microsoft recomienda a los usuarios que no dependan de Copilot para recibir asistencia y recomendaciones importantes. Por si esto fuera poco, Microsoft también dice que utilicemos Copilot bajo nuestro propio riesgo. ¿Qué quiere decir esto, no era la IA tan buena y tan fiable?
Lo que Microsoft quiere decir es que Copilot no debería utilizarse para realizar tareas profesionales, ni para nada que pueda conllevar un cierto riesgo o que requiera de un alto nivel de perfección y de ausencia de errores, porque esta IA puede cometer errores y estos pueden tener consecuencias graves en determinados espacios y niveles.
Para empeorar las cosas, Microsoft dice en esos términos y condiciones que no garantiza que Copilot funcione como se espera. Todo esto contradice el empuje y las promociones que Microsoft hace de Copilot. En sus campañas publicitarias lo pinta como una solución muy competente y con muchas posibilidades, pero entre bambalinas no se fía de ella.
Esta actitud ha generado muchas críticas, pero es normal que Microsoft no quiera jugársela. Cualquier IA puede fallar y sufrir alucinaciones, y una de esas alucinaciones puede tener consecuencias muy graves si afectan a un documento importante, como un texto judicial o un trabajo universitario.
Es curioso también que se reconozca ahora que hay mucha gente con un alto grado de dependencia de la IA que esta no es tan fiable como nos han vendido, y que puede fallar en cualquier momento. Eso sí, todo esto se reconoce a voz baja no sea que la burbuja pinche.
