
¡Cuidado ChatGPT! La Bestia Oriental Volvió al Ataque | 💻Supra Virtual 💻 | 04 Junio
Miércoles 04 Junio 2025
IA Supra Virtual
¡Cuidado ChatGPT! La Bestia Oriental Volvió al Ataque.
¡Hola, Amigos!
¿Se acuerdan de DeepSeek R1, el modelo chino que en enero nos sorprendió y de paso le dio una sacudida histórica a NVIDIA? Bueno, pues volvió, y no con cualquier cosa. En estos últimos días, anunció su nueva actualización y, como buen contendiente en esta pelea de pesos pesados, promete ser aún más eficaz que ChatGPT (sí, así tal cual lo dijeron, sin parpadear).
La nueva versión, conocida como DeepSeek R1 0528, promete lo que todos los modelos de lenguaje prometen cuando quieren llamar la atención: que es más eficaz, más rápido, más barato y más cool que ChatGPT (sí, incluso el 4o con voz sexy y ojos bonitos). Pero lo interesante acá es que no se trata solo de humo.
El equipo de DeepSeek le metió unos ajustes técnicos (que no vamos a detallar porque no queremos que se duerman a mitad del párrafo, lo haremos después) y ahora el modelo puede razonar mejor, mantener contextos más largos y responder más rápido… incluso con menos hardware. ¿La clave? Un entrenamiento optimizado que aprovecha mejor los recursos, especialmente en entornos chinos donde no hay chips gringos para tirar al aire.
¿Y eso qué significa para todos nosotros?
Que en este momento, un modelo open source entrenado con chips “limitados” está dando pelea de frente a los gigantes del oeste. Y no es poca cosa. Esto podría empujar a otros a ponerse las pilas y dejar de cobrarte hasta por decir "hola".
Y sí, ya estamos viendo otra vez a OpenAI, Meta, Google, y hasta a Elon Musk apretando los dientes, buscando cómo acelerar sus propios lanzamientos antes de que el dragón les pase volando por encima.
¿Esto es el fin de ChatGPT? ¡Para nada! Pero sí es una cachetadita amistosa para que no se confíen.
Recuerda, en la IA no hay descanso: hoy eres el rey, mañana eres el meme del grupo de WhatsApp.
Mientras tanto, nosotros felices viendo cómo se agarran a sablazos con código y datasets, porque eso significa mejoras para todos, precios más bajos y un chismecito tecnológico de calidad cada semana.
No vemos la próxima semana, recuerden suscribirse a nuestro canal, al newsletter en correo y darle like y seguirnos en nuestras redes sociales. Adiós y gracias.
Marco Garcia
Imagen generada en DALL-E
DeepSeek R1 0528
DeepSeek, la startup china de inteligencia artificial, ha anunciado recientemente una actualización significativa de su modelo de razonamiento R1, denominada DeepSeek-R1-0528.Esta versión mejora notablemente en áreas como matemáticas, programación y razonamiento lógico, además de reducir las "alucinaciones" o errores en la generación de información.
Principales mejoras y rendimiento
El modelo DeepSeek-R1-0528 fue evaluado usando LiveCodeBench, un benchmark desarrollado por UC Berkeley, MIT y Cornell, centrado en tareas de programación “en vivo”.
Resultados destacados:
- 🥈 Quedó justo por debajo de o4-mini y o3 de OpenAI.
- 🥉 Superó a modelos reconocidos como:
- xAI Grok 3 mini
- Alibaba Qwen 3
- Google Gemini 1.5 Flash
- 🧩 Muestra un desempeño competitivo en tareas que requieren pensamiento en cadena (chain-of-thought) y razonamiento formal, como resolver problemas paso a paso.
Esto sitúa a DeepSeek como uno de los modelos más potentes provenientes de Asia, especialmente en aplicaciones técnicas.
Adopción por grandes plataformas tecnológicas
Empresas internacionales ya están integrando DeepSeek R1 en sus servicios, señalando una creciente confianza en el modelo:
- 🧱 Microsoft lo añadió a Azure AI Foundry, lo que permite a desarrolladores usar DeepSeek para construir copilotos y apps basadas en IA.
- 🔗 Google integró el modelo en Vertex AI, su entorno de desarrollo de inteligencia artificial empresarial.
- 🤖 Perplexity.ai, el buscador con IA, permite hacer consultas con DeepSeek R1 como motor (según el plan del usuario).
Estas integraciones representan un paso clave en su internacionalización y competencia directa con OpenAI y Anthropic.
Controversias y limitaciones del modelo
Aunque la tecnología es impresionante, DeepSeek no está exento de problemas:
- Censura y alineamiento ideológico
🛑 El modelo evita responder sobre temas políticamente sensibles en China, como: - La masacre de Tiananmén
- Cuestiones sobre la independencia de Taiwán
- Derechos humanos en Hong Kong
- Esto genera dudas sobre su neutralidad informativa y su viabilidad como modelo abierto al mundo occidental.
Costos y dudas sobre transparencia
DeepSeek afirma haber entrenado su modelo con 1.4 millones de USD, pero expertos estiman que la infraestructura necesaria supera fácilmente los 10-20 millones USD.
Algunas voces en la comunidad tech acusan al equipo de exagerar su eficiencia o esconder inversiones estatales chinas.
¿Por qué esta actualización es importante?
- Marca el primer modelo no occidental que rivaliza directamente con OpenAI a nivel técnico en tareas de razonamiento estructurado.
- Representa el potencial de los LLMs chinos más allá de la copia o imitación, con contribuciones propias al campo.
- La eficiencia y velocidad de iteración que muestra DeepSeek sugiere que China podría ponerse al día en IA de frontera más rápido de lo previsto.