Investigación publicada
internacionalmente

No solo integramos IA — la creamos. Entrenamos modelos transformer propios y publicamos nuestra investigación en repositorios científicos internacionales revisados por pares.

Paper Publicado
✓ Publicado · ChemRxiv

MaterIA — Transformer Molecular

Modelo transformer ligero diseñado para predicción de propiedades moleculares. Entrenado con datos crudos, el modelo descubre patrones estructurales en moléculas sin necesidad de programar reglas manualmente. Resultados publicados en ChemRxiv, repositorio de la American Chemical Society.

Repositorio
ChemRxiv (ACS)
Fecha
2 de marzo, 2026
Licencia
CC-BY-NC-ND 4.0
Autor
AiGO México
Parámetros
658K (ligero)
📄 Ver Paper en ChemRxiv →
MaterIA - Transformer Molecular
Nuestra Filosofía

Modelos que descubren, no que obedecen

Creemos que la verdadera inteligencia artificial no programa respuestas — descubre patrones. Nuestros modelos encuentran estructuras que ningún humano ha definido explícitamente. Como un científico que observa la naturaleza y encuentra leyes.

🔬

Aprendizaje desde la observación

Nuestros modelos aprenden directamente de la naturaleza de los datos. En lugar de programar reglas, dejamos que la inteligencia artificial encuentre las estructuras que importan.

Eficiencia extrema

658K parámetros vs millones en modelos convencionales. Nuestros transformers hacen más con menos, corriendo en hardware común sin GPUs costosas.

🌐

Ciencia abierta

Publicamos en repositorios internacionales con licencia Creative Commons. La investigación avanza cuando se comparte, no cuando se esconde.

¿Interesado en colaborar?

Si eres investigador, académico o institución y quieres explorar colaboraciones en IA aplicada, escríbenos.

📩 info@aigo.com.mx
🤖

Jharvis

Asistente IA de AiGO · En línea

¡Hola! 👋 Soy Jharvis. ¿Te interesa nuestra investigación o buscas colaborar con nosotros? Pregúntame lo que quieras.