Lança ZAYA1-8B-Diffusion-Preview, unindo modelos de linguagem e difusão com arquitetura MoE.
O novo modelo MoE de difusão atinge até 7.7x mais velocidade na geração de imagens.
"Mixture of Experts" otimiza o uso de recursos, ativando apenas partes do modelo para cada tarefa.
Pioneiro em converter um LLM em modelo de difusão, elevando a inteligência da geração visual.
Acelera design, games, publicidade e abre portas para novas [startups](/categoria/startups) de [inteligência artificial](/categoria/inteligencia-artificial).
Leia o artigo completo no nosso blog.