OpenAI lanza GPT-4, una IA multimodal con soporte de imágenes

Últimamente sólo se habla de ChatGPT. Con el modelo de lenguaje GPT 3 y GPT 3.5 (para suscriptores Plus), el chatbot de IA ha crecido a pasos agigantados en lo que puede hacer. Sin embargo, mucha gente ha estado esperando con impaciencia un modelo actualizado que vaya más allá. Pues bien, OpenAI lo ha hecho realidad con GPT-4, su último LLM multimodal que viene repleto de mejoras y tecnología sin precedentes en IA. Descubre todos los detalles a continuación. GPT-4 es multimodal y supera a 3.5 El recién anunciado modelo GPT-4 de OpenAI es algo grande en inteligencia artificial. Lo más importante es que GPT-4 es un gran modelo multimodal. Esto significa que podrá aceptar entradas de imagen y texto, lo que le proporcionará una comprensión más profunda. OpenAI menciona que, aunque el nuevo modelo es menos capaz que los humanos en muchos escenarios del mundo real, aún puede exhibir un rendimiento de nivel humano en varios niveles. También se considera que GPT-4 es un modelo más fiable, crea...