What's in AI - #6
Tu dosis semanal de Inteligencia Artificial 🤖 Por Abilio Romero y Juan Águila.
Esta semana se cumplen 96 años del nacimiento de Jean Sammet, creadora del lenguaje FORMAC y coautora de COBOL.
COBOL (COmmon Business Oriented Language) fue uno de los primeros lenguajes de programación modernos. Creado en el 1959, buscaba ser la referencia en aplicaciones de negocios e informática de gestión.
Y tanto fue así que hoy, 65 años después, se estima que más del 70% de las transacciones de los sistemas financieros se apoyan en COBOL.
Los contrastes de la vida: nosotros hablando de IA, y el mundo funcionando en COBOL… 😊
Esta semana en WIAI…
🍎Apple presenta MM1, para el entrenamiento multimodal de LLMs
🧠🔍Google comienza los test públicos de su generative AI search
🍎🤝🔍The New York Times también confirma las conversaciones entre Apple y Google por Gemini
📚 Junto con otras noticias interesantes sobre IA
No te pierdas nada
[🌟] 👀 🤯 La conferencia de desarrolladores de Nvidia se convierte en el Woodstock de la IA: llegan las Blackwell, las GPUs más potentes del mundo
Nvidia ha revolucionado el mundo de la Inteligencia Artificial con su conferencia para desarrolladores: la GTC 2024 (GPU Technology Conference) ha superado todas las expectativas, con un ambiente electrizante y anuncios que parece que van a marcar un antes y un después en el sector.
Jensen Huang, la nueva estrella del rock de la IA: Con una presentación digna del mejor Steve Jobs, Huang cautivó a la audiencia de la GTC y se consolidó como un líder carismático en la industria.
Las claves de la conferencia:
En la actualidad, la GPU H100 de Nvidia es el hardware must-have para hacer IA a escala. Gracias al H100, Nvidia se ha convertido en una compañía de más de 2 billones de dólares (trillones americanos), y ha superado en capitalización de mercado a Amazon o Alphabet. Por poner un ejemplo, Meta gastó hace un par de meses casi 10 mil millones (billones americanos) en 350 mil H100.
Ahora, Nvidia presenta una nueva generación de GPUs. Nvidia ha presentado la serie Blackwell, que se convierte en un nuevo estándar en potencia.
La GPU Blackwell 200 (B200) tiene 208 mil millones de transistores y 20 petaflops de potencia.
Y la GPU Grace Blackwell 200 (GB200) combina dos B200 con una CPU Grace y promete multiplicar por 25 el rendimiento de las H100.
Según Jensen Huang, para entrenar un modelo de 1.8 billones (trillones americanos) de parámetros se necesitarían unas 8 mil H100 y unos 15MW de potencia. Hoy, 2 mil B200 podrían hacerlo consumiendo 4MW.
La nueva tecnología NVLink de Nvidia permite clusters inmensos de estos chips, creando potencial para supercomputadoras de IA sin precedentes.
Se estima que las nuevas Blackwell costarán alrededor de 40 mil dólares.
Durante la GTC 2024, se presentaron también microservicios de inferencia para hacer deployment de aplicaciones de IA y un proyecto llamado GR00T que busca construir un modelo fundacional que los robots humanoides puedan utilizar para aprender y adaptarse al entorno.
Os dejamos un video de 15 minutos con los highlights de la GTC 2024.
🍎Apple presenta MM1, para el entrenamiento multimodal de LLMs
Apple ha publicado un paper que introduce MM1, un enfoque para entrenar modelos multimodales. Este método utiliza datos sintéticos, como imágenes y texto, para acelerar el entrenamiento y obtener resultados más inteligentes y versátiles.
MM1 aprovecha un conjunto diverso de datos, incluyendo pares de imágenes y subtítulos, documentos de imagen y texto, y datos de solo texto. Esto establece un nuevo estándar para tareas como subtitular imágenes y proporcionar respuestas visuales.
Según los investigadores de Apple, MM1 logra resultados de última generación en múltiples puntos de referencia multimodales. Es un avance significativo en la capacidad de la IA para tareas variadas.
🧠🔍Google comienza los test públicos de su generative AI search
Google está probando resúmenes generados por IA en los resultados de búsqueda principales para consultas más complejas en EE. UU., incluso para usuarios que no se han registrado en la “Experiencia Generativa de Búsqueda” .
El objetivo de la prueba es obtener comentarios de una audiencia más amplia y comprender los beneficios de la tecnología .
Google busca mantenerse a la vanguardia en la búsqueda de IA, especialmente frente a competidores como Microsoft y OpenAI.
🚀🤖GPT-5 está a la vuelta de la esquina: OpenAI se prepara para lanzar su nuevo modelo de IA a mediados de año
OpenAI se prepara para lanzar su nuevo modelo de inteligencia artificial a mediados de año. Aunque aún está en entrenamiento, algunas empresas ya lo están probando y proporcionando feedback.
A pesar de la competencia de otros modelos como Claude 3 y Llama 2, OpenAI busca mantener su posición líder. GPT-5 podría ser su respuesta para seguir innovando.
🍎🤝🔍The New York Times también confirma las conversaciones entre Apple y Google por Gemini
The New York Times confirma que Apple está en conversaciones preliminares con Google acerca de integrar Gemini en el iPhone.
Apple busca un modelo de lenguaje para analizar grandes cantidades de datos y generar texto. La incorporación de Gemini podría ser clave del nuevo iOS.
Si tienes ganas de mas…
Un vídeo del primer humano con Neuralink, controlando un ordenador
Deepming presenta TacticAI: un asistente de IA para tácticas de football
Mustafa Suleyman, cofundador de DeepMind e Inflection, se une a Microsoft para liderar Copilot
Intel recibe 20 mil millones para impulsar sus fábricas de chips en EEUU
Sakana, una IA capaz de combinar los mejores modelos con un algoritmo evolucionario
OpenAI quiere que Hollywood use Sora
🎁 Bonus track
Os dejamos la segunda entrevista de Lex Fridman con Sam Altman, dónde nos avanza su visión sobre lo que va a ser GPT-5.
Y si te ha gustado la publicación, ¡no olvides compartirla!
Y si aún no estas suscrito, ¿a qué esperas? 😉
Déjanos tu opinión: