Las noticias sobre Inteligencia Artificial se suceden a un ritmo especialmente acelerado estos días, especialmente tras el anuncio de GPT-4 por parte de OpenAI. OpenAI es una empresa centrada en el desarrollo de aplicaciones de IA, como ChatGPT, basada en su modelo GPT, que a su vez entra dentro de la categoría de los llamados LLM o Large Language Models.
Básicamente, se trata de motores de IA entrenados con ingentes cantidades de textos, que van encontrando valores para los 175.000 millones de parámetros de GPT-3.5 primero y el aún desconocido número de parámetros de GPT-4 ahora. GPT-4 es un modelo multimodal, todo sea dicho, que admite como entradas, no solo texto, sino también imágenes.
Microsoft ha invertido ingentes cantidades de dinero en OpenAI, al tiempo que es la compañía que ofrece la plataforma de supercomputación para entrenar estos modelos, usando centros de datos y superordenadores equipados, sin ir más lejos, con GPUs NVIDIA Tesla A100. Hablamos de una potencia de cálculo y un uso de energía que, cuando se conozcan de un modo preciso (si es que OpenAI decide compartir públicamente estos datos), posiblemente nos dejarán estupefactos.
Microsoft, por otro lado, ya integra GPT-4 en su buscador Bing, cuya nueva versión con el chat integrado ya está disponible para todos.
La IA como herramienta de automatización
Microsoft ya ha integrado la Inteligencia Artificial de Chat GPT en GitHub, la plataforma para desarrolladores por antonomasia, a través de la figura del “copiloto”. GitHub Copilot permite generar código a través del motor de IA Codex de OpenAI, lo cual acelera algunos procesos de desarrollo, especialmente para programadores noveles o con poca experiencia.
Simplemente, se pide a Copilot que genere el código para realizar una tarea específica, y Copilot lo hace. A medida que los motores de IA mejoran, Copilot se vuelve más eficiente.
Ahora, Microsoft quiere llevar la figura del copiloto a Microsoft 365. En el vídeo anterior se plantea esta iniciativa, de hecho. Es decir, y por decirlo de un modo resumido, Microsoft quiere aplicar la IA para mejorar la experiencia de uso de Office, esencialmente, de modo que la IA incluso genere un primer borrador de un texto, para que el usuario vaya refinándolo posteriormente. Otro tanto de lo mismo podría pasar con PowerPoint, gracias a la generación de imágenes o a la selección de las mismas desde el almacenamiento de OneDrive.
También es posible generar plantillas para correos, al tiempo que se pueden integrar contenidos provenientes de las herramientas de chat y colaboración o de los calendarios.
Integrar una herramienta Copilot en Microsoft 365 puede ser de gran ayuda, siempre y cuando se use con un propósito y no meramente como una forma de no hacer nuestro trabajo, claro está. GPT-4 no está exenta de cometer errores, por lo que es preciso validar los elementos generados por la IA antes de llevarlos a producción.
De momento, Copilot para Microsoft 365 estaría en una fase de prueba limitada a unas pocas y selectas empresas y usuarios, incluyendo ocho empresas del ranking Fortune 500.
Microsoft ha comentado que dispone de herramientas para la mitigación de errores producidos potencialmente por Microsoft 365 Copilot, dando por hecho que habrá errores. Este servicio es muy probable que tenga un coste adicional sobre la suscripción de Microsoft 365.
Por lo pronto, Satya Nadella está poniendo en aprietos a Google, que empieza a ver peligrar el modelo de negocio asociado a sus búsquedas “tradicionales”. Microsoft no se juega mucho en este negocio de las búsquedas, siendo sus ingresos responsabilidad de otras tecnologías como la nube de Azure o los servicios tales como el mencionado Microsoft 365 o GitHub.
Las inversiones en OpenAI son sustanciosas, en torno a los miles de millones de dólares, pero parece que el rédito está asegurado a medio plazo.
El sensacionalismo y la Inteligencia Artificial
La aproximación de Microsoft a la IA tiene un componente práctico y sensato a primera vista. En este punto, se mantiene un tanto alejada del sensacionalismo asociado a Chat GPT de OpenAI, que en estos últimos meses ha despertado un interés inusitado, fundamentado en muchas ocasiones en expectativas más que en realidades.
De momento, GPT-4 es una evolución de GPT-3.5 y no tanto una revolución. Es cierto que se incluye la multimodalidad, permitiendo que se introduzca texto, audio, imágenes e incluso vídeo en los prompts de “búsqueda”, pero esencialmente no cambia la forma de entrenar el modelo LLM, en esta ocasión multimodal.
Hay muchas expectativas alrededor de GPT-4, especialmente en lo que a la calidad de las respuestas se refiere. Se ha reducido el margen de error en algunos escenarios, así como la probabilidad de que "se le vaya la pinza", pero sigue siendo un modelo basado en probabilidades para la generación de inferencias, no en inteligencia "fuerte".
Lo que ha propiciado OpenAI con GPT, es la proliferación de chatbots basados en IA, como el de Baidu, o el la propia Google con Bard o Meta con BlenderBot. No han sido iniciativas muy afortunadas hasta la fecha. En la parte de generación de imágenes a partir de texto, tenemos casos más satisfactorios como MidJourney, Stable Diffusion o Dall-E.
Un futuro aún incierto
Lo más probable es que veamos una proliferación notable de la IA en áreas de actividad tales como las relacionadas con la generación de contenidos, tanto internamente en los procesos empresariales, como de cara al público en medios de comunicación, redes sociales o plataformas de contenidos bajo demanda.
El procesamiento avanzado de vídeo y audio a través de la iA puede ser un hito importante para los motores de Inteligencia Artificial si el resultado permite extraer y encontrar información a partir de este tipo de contenidos sin necesidad de que haya que escucharlos “artesanalmente” para indexarlos, por ejemplo.
La corrección de errores o la mitigación de los mismos es también un punto relevante de cara a que la IA se afiance. La IA no es infalible, tal y como advierten desde Microsoft en esta fase temprana de integración de Copilot para Microsoft 365 en fase beta de pruebas. Si la IA es responsable de algún error de bulto o un error grave en su ejecución, puede suponer que se deje de “confiar” en ella.
De momento, todo es posible, una vez que se pase esta etapa de optimismo exacerbado.