¿Teléfonos con 24 GB de RAM? Y con 32, ya veréis. La incorporación de modelos de IA generativa locales necesita disponer de mucha memoria. Para obtener una idea del futuro, bajaos https://jan.ai/ (un motor de LLM de código abierto) y probadlo. Mi Core i7 con 16 GB chilla de dolor para generar cuatro tokens por segundo. O, dicho de otro modo, se le puede ver «pensar».
Aunque me disculpáis si me pregunto… ¿Necesitamos un LLM en el sistema operativo?
#leyendo https://arstechnica.com/gadgets/2024/03/google-says-the-pixel-8-will-get-its-new-ai-model-but-ram-usage-is-a-concern/