El chip fotónico LightGen es un prototipo de computación óptica desarrollado por equipos de la Universidad Jiao Tong de Shanghái y la Universidad de Tsinghua, con foco en acelerar tareas de IA generativa. En pruebas de laboratorio, reportes asociados al trabajo describen mejoras de hasta 100 veces en velocidad y eficiencia energética frente a una GPU Nvidia A100 en cargas específicas de generación y manipulación de contenido.
Qué es LightGen y qué se comparó con el hardware actual
LightGen se describe como un procesador “all-optical”: en lugar de mover y calcular información con corriente eléctrica, lo hace con pulsos de luz. En su presentación pública se lo posiciona como un salto relevante para tareas de IA generativa por su relación rendimiento/energía y su capacidad de operar con redes ópticas de mayor escala que prototipos anteriores, según el comunicado de AAAS en EurekAlert sobre LightGen.
En paralelo, una revisión periodística del mismo trabajo reporta que el diseño logró ejecutar tareas de generación con “100 veces” más velocidad y “100 veces” más eficiencia energética que chips líderes en ese tipo de carga, citando la comparación con la A100, en el reporte de Tech Xplore/Phys.org.
Te puede interesar
Tecnologías mineras avanzadas conquistan el espacio profundo con inteligencia artificial
Cómo funciona: de transistores a “neuronas” fotónicas
En la arquitectura descrita, el cálculo se realiza con componentes ópticos que actúan como “neuronas” fotónicas, orientadas a procesar información en paralelo usando luz. El objetivo técnico es atacar un cuello de botella central de la IA generativa moderna: mucho cómputo, alto consumo eléctrico y calor asociado a hardware electrónico cuando las cargas escalan.
El artículo académico que sustenta el avance fue publicado en Science (diciembre de 2025) y está disponible como registro y resumen en el artículo indexado en PubMed.
La escala: más de dos millones de neuronas en un chip
Uno de los puntos que marca diferencia en LightGen es la densidad: el proyecto reporta más de dos millones de neuronas fotónicas integradas, lo que empuja el rango de problemas abordables hacia tareas generativas más exigentes, de acuerdo con el comunicado de AAAS en EurekAlert.
Esa escala es clave porque la computación fotónica había mostrado ventajas en velocidad/energía, pero con dificultades para subir de tamaño sin perder utilidad práctica en modelos más complejos.
Qué tareas apunta a acelerar en IA generativa
La línea de demostraciones asociadas a LightGen se centra en visión e imagen. En la descripción pública del trabajo se mencionan tareas como:
- síntesis de imágenes de alta resolución
- manipulación de video
- transferencia de estilo
- denoising (reducción de ruido)
Ese set de tareas aparece explicitado en el comunicado de AAAS en EurekAlert, mientras que Tech Xplore agrega que el chip se diseñó para creación de imágenes, escenas 3D y videos en cargas generativas, según su reporte sobre el prototipo.
Por qué esto importa para energía y cadena de suministro
El atractivo de un acelerador que reduzca consumo por unidad de cómputo es directo: los centros de datos están bajo presión por demanda eléctrica y expansión de infraestructura. En ese marco, el debate sobre eficiencia no es teórico: proyecciones y escenarios energéticos ya se discuten como tendencia estructural en la industria, como se revisa en este análisis sobre la AIE y el consumo eléctrico de la IA hacia 2030.
Al mismo tiempo, la carrera por hardware para IA vuelve a poner foco en minerales críticos y en la capacidad de procesamiento y manufactura (midstream) que domina la cadena de semiconductores. Para el ángulo minero, ese vínculo está abordado en Minerales críticos para el auge de la inteligencia artificial y en el análisis sobre el 98% del galio y el control industrial clave en semiconductores.
Qué falta para pasar de prototipo a producto
Lo reportado hasta ahora sitúa a LightGen como un resultado de laboratorio con métricas destacadas en tareas específicas, no como un reemplazo general de GPU en centros de datos. En los textos asociados al avance se reiteran hitos pendientes vinculados a escalamiento e integración práctica:
- escalado hacia modelos y cargas aún mayores
- maduración del diseño como plataforma repetible fuera del entorno experimental
- encaje con infraestructura y flujos de trabajo reales de IA (hardware y software)
Ese carácter de prototipo y el foco en próximos pasos de escalamiento aparecen en el reporte de Tech Xplore/Phys.org, y el encuadre académico del avance se resume en el registro del artículo en PubMed.
