La nueva versión de ChatGPT, GPT-4, ya está disponible, aunque solo para los programadores y para quienes quieran pagar por ello. OpenAI asegura que es más potente y humana
La inteligencia artificial de moda, ChatGPT, ya tiene una nueva versión que le hace todavía un poco más humana. OpenAI, la fundación detrás de esta tecnología que ha puesto patas arriba la industria tecnológica, acaba de anunciar GPT-4, un nuevo modelo de lenguaje que dará más posibilidades a la hora de interactuar con esta herramienta. Ahora, además del texto, podrás chatear con este sistema introduciendo imágenes y archivos complejos, como libros enteros para resumirlos. La promesa es que el nuevo ChatGPT será más preciso, rápido y humano.
Según OpenAI, GPT-4 es su «último hito en su esfuerzo por escalar el aprendizaje profundo (deep learning)». GPT-4 estará disponible para programadores a través de las API de la compañía (con una lista de espera) y se podrá probar dentro de ChatGPT, pero solo la versión de pago, ChatGPT+. El fundador de OpenAI, Sam Altman, asegura que GPT-4 «todavía tienes fallos, es aún limitado y parece mucho más impresionante al principio que después de pasar un buen rato con él».
Te podría interesar Lo último de OpenAI llega a Copilot.
Según el fundador de OpenAI, las principales novedades de GPT-4 apuntan a que es mucho más creativo que antes, alucina menos, es decir, se inventa menos cosas, y tiene menos sesgos. Ahora puede aprobar varios tipos de exámenes, como los que se realizan en EEUU para entrar a formar parte de una asociación de abogados, un organismo reglado jurídicamente.
OpenAI ha pasado seis meses trabajando en esta nueva versión de GPT. «En una conversación informal, la diferencia entre GPT-3,5 y GPT-4 puede ser sutil, pero las diferencias realmente se aprecian cuando la complejidad de la tarea alcanza un punto determinado«. Es en este punto, asegura OpenAI, cuando se nota de verdad la potencia de la nueva versión.
Una de las funciones más impresionantes de GPT-4 es la posibilidad de procesar imágenes e identificar objetos concretos dentro de una foto con muchos elementos visuales. Esta funcionalidad de reconocer y procesar imágenes no está disponible para todos los clientes de Chat GPT+, pero lo estará una vez hayan refinado la tecnología.
OpenAI ha presentado también alianzas con varias compañías que ya usan GPT-4 para ofrecer nuevos servicios. Una de ellas es la aplicación para aprender idiomas Duolingo, que ha presentado una nueva opción de chat para preguntar dudas casi como si estuvieras hablando con un profesor virtual. La startup danesa Be My Eyes, que desarrolla tecnología para que personas invidentes puedan escuchar descripciones de fotos a través de sus móviles, ha empezado a usar también GPT-4.
y tu que piensas al respecto? déjanos saber en los comentarios