Estima parámetros de modelos transformer y requisitos de memoria GPU. Calcula pesos de atención, FFN, embeddings y planifica infraestructura GPU para entrenamiento o inferencia.
También podrías encontrar útiles estas calculadoras
Calcula requisitos de VRAM para inferencia de LLM
Compara costos de GPU auto-hospedada vs APIs de inferencia
Analiza el uso de la ventana de contexto de LLM y planificación de capacidad
Convierte entre binario, decimal, hex y octal
Ejecutar modelos de lenguaje grandes requiere entender su huella de memoria. Nuestra Calculadora de Tamaño de Modelo te ayuda a estimar parámetros y requisitos de memoria GPU para transformers, ya sea que estés entrenando un modelo personalizado o desplegando para inferencia. Basado en las fórmulas de Transformer Math de EleutherAI y conteo de parámetros de Kipply.
Los modelos transformer consisten en capas de atención, redes feed-forward y embeddings. La fórmula clásica P ≈ 12Ld² estima parámetros desde capas (L) y dimensión oculta (d). Los requisitos de memoria dependen de la precisión (FP32/FP16/INT8) y si estás entrenando (requiere estados de optimizador y gradientes) o ejecutando inferencia (requiere caché KV).
Fórmula de Parámetros
P = 12 × L × d_model² + V × d_modelDetermina si tu modelo cabe en una sola GPU o requiere configuraciones multi-GPU con paralelismo de tensor/pipeline.
Los requisitos de memoria GPU impactan directamente los costos de computación en la nube. Dimensiona correctamente tu infraestructura para evitar gastos excesivos.
Al diseñar modelos personalizados, entiende los compromisos de parámetros/memoria de diferentes configuraciones de capas.
Ve cómo la cuantización INT8 o INT4 reduce los requisitos de memoria, permitiendo modelos más grandes en GPUs de consumo.
El entrenamiento requiere: 1) Pesos del modelo, 2) Estados del optimizador (AdamW almacena momentum y varianza = 8 bytes/parámetro), 3) Gradientes (4 bytes/parámetro), 4) Activaciones para retropropagación. Regla general: entrenamiento necesita ~16-20 bytes por parámetro en precisión mixta, mientras inferencia solo necesita 2 bytes por parámetro en FP16.