- Inicio
- Noticias de DeepSeek
- El séptimo día de silencio de DeepSeek: Silicon Valley celebra, mientras el código abierto acumula GPUs

El séptimo día de silencio de DeepSeek: Silicon Valley celebra, mientras el código abierto acumula GPUs
Twitter oficial en silencio, cero commits en el repositorio. Mientras OpenAI y Anthropic pensaban que habían ganado el fin de semana, ¿qué está pasando realmente en la clandestinidad?
Exclusiva DeepSeekV4.app | 09-02-2026 (Tarde en la noche) | Editor: Wing
Es domingo por la noche y el Twitter oficial de DeepSeek permanece completamente en silencio.
Este silencio es inquietante. Una empresa que mantenía una producción de alta intensidad incluso durante el Año Nuevo Lunar, sumiendo en el caos a los gigantes de Silicon Valley, de repente se ha quedado a oscuras durante toda una semana. Algunos dicen que tienen miedo, asustados por el asedio combinado de los competidores; otros dicen que es la baja presión antes de la tormenta.
Yo creo en lo último. Si te das un paseo por HuggingFace o el subreddit LocalLLaMA de Reddit, descubrirás que absolutamente nadie piensa que DeepSeek haya perdido. Al contrario, todos están ocupados quitándole el polvo a sus tarjetas gráficas.
El fantasma de R1
DeepSeek no ha lanzado nuevos modelos esta semana, pero no importa. Porque DeepSeek-R1 ya se ha infiltrado en cada rincón de la comunidad de código abierto como un fantasma.
Ahora, la gente no construye modelos desde cero; la tendencia es la "Destilación" (Distillation). La tendencia en HuggingFace esta semana es clara: los desarrolladores están tomando datos de Cadena de Pensamiento (esos largos procesos de razonamiento) generados por R1 y alimentando con ellos a Llama 3 o Qwen. Los resultados son escandalosos: esos pequeños modelos de 7B u 8B parámetros, una vez que aprenden la forma de pensar de R1, ven cómo sus capacidades lógicas saltan un nivel, atreviéndose incluso a desafiar a GPT-4o.
Este movimiento es despiadado. DeepSeek no necesita mover un dedo para derrotar a cada modelo de código cerrado por sí mismo; simplemente esparció la chispa (datos). Ahora, todo el mundo de código abierto está usando su lógica para asediar a OpenAI y Anthropic.
La próxima semana: El ojo de la tormenta
¿Por qué no habla la cuenta oficial? Solo hay una explicación: Manos a la obra, el sprint final.
He revisado el blog de Humai y los rumores de la cadena de suministro de hardware, y los fragmentos apuntan a un único momento: A mediados de febrero. Que es la próxima semana.
Esto explica por qué el precio de las tarjetas RTX 4090/5090 usadas ha estado subiendo en los últimos dos días. Los geeks tienen el olfato más fino; saben que viene V4. Y dado el carácter de DeepSeek, es muy probable que vuelvan a liberar los pesos (Open Weights). Todo el mundo está acumulando tarjetas, esperando para meter V4 en sus cajas en el momento en que salga.
Los rumores dicen que V4 añadirá capacidades Multimodales y de Engram (Memoria a largo plazo). Si es cierto, no solo será más inteligente, sino que tendrá ojos y memoria.
¿Es efectivo el contraataque de Silicon Valley?
El jueves estuvo animado. OpenAI lanzó GPT-5.3 Codex y Anthropic lanzó Claude Opus 4.6. Dos gigantes haciendo grandes movimientos el mismo día: no hace falta decir a quién apuntaban.
Ahora, tres días después, ¿cómo va la batalla?
- Mercado de gama alta: Claude es ciertamente sólido; una ventana de contexto de 1 millón es imprescindible para las grandes empresas, no se puede negar.
- Mercado masivo: La posición de DeepSeek no se ha movido ni un centímetro.
La razón es simple: Dinero. Es simplemente demasiado caro. Hice las cuentas: el costo de la API para ejecutar una refactorización completa del repositorio con Opus 4.6 es suficiente para comprar dos 4090 y ejecutar DeepSeek tú mismo de por vida. Mientras V4 mantenga su identidad de "Carnicero de precios", los fosos que construyó esa gente de Silicon Valley seguirán siendo de papel.
Consejo final
No se deje engañar por la calma superficial. DeepSeek no necesita apresurarse a publicar comunicados de prensa como Google, ni necesita organizar eventos de lanzamiento truculentos como OpenAI. Solo necesita subir silenciosamente unos cuantos archivos de peso en una mañana cualquiera (quizás incluso mañana).
Entonces, el mundo volverá a temblar.
Obtendremos el modelo para su evaluación lo antes posible. Si no quiere perderse las noticias de primera mano del lanzamiento de V4 (incluidos los tutoriales sobre implementación privada):
👉 Por favor, consulte inmediatamente la barra lateral a la derecha y haga clic en "Suscribirse a las actualizaciones".
(No solo noticias, sino también nuestro manual exclusivo de ajuste de V4, enviado a los suscriptores 24 horas antes que a los canales públicos).
Author

More Posts

OpenAI lanza GPT-5.4: ¡1M de contexto + Agentes nativos para frenar a DeepSeek V4!
OpenAI ha lanzado por sorpresa su modelo insignia GPT-5.4, con 1 millón de contexto nativo y un motor de agentes, buscando establecer una muralla tecnológica ante el lanzamiento de DeepSeek V4.


Toda la red espera el banquete de DeepSeek V4, ¿por qué no se destapa la olla? ¡La verdad es más 'hardcore' de lo que piensas!
¿Por qué DeepSeek V4 faltó a su cita del 2 de marzo? Revelamos las tres grandes apuestas tras el retraso: migración a la infraestructura de cómputo nacional, buque insignia multimodal y ventana de lanzamiento estratégica.


La guerra de los modelos ligeros: GPT-5.3 Instant y Gemini 3.1 Flash-Lite llegan – ¿Cómo mantiene DeepSeek V4 su liderazgo?
Con el lanzamiento simultáneo de GPT-5.3 Instant y Gemini 3.1 Flash-Lite por OpenAI y Google, el mercado de modelos ligeros está en ebullición. Análisis de su impacto en ecosistemas de Agentes como OpenClaw y las ventajas competitivas de DeepSeek V4.

Boletín
Únete a la comunidad
Suscríbete a nuestro boletín para las últimas noticias y actualizaciones