Bobinas P4G
  • Login
  • Public

    • Public
    • Groups
    • Popular
    • People

Conversation

Notices

  1. Iván Rivera (brucknerite@social.brucknerite.net)'s status on Monday, 01-Apr-2024 12:12:21 UTC Iván Rivera Iván Rivera

    ¿Teléfonos con 24 GB de RAM? Y con 32, ya veréis. La incorporación de modelos de IA generativa locales necesita disponer de mucha memoria. Para obtener una idea del futuro, bajaos https://jan.ai/ (un motor de LLM de código abierto) y probadlo. Mi Core i7 con 16 GB chilla de dolor para generar cuatro tokens por segundo. O, dicho de otro modo, se le puede ver «pensar».

    Aunque me disculpáis si me pregunto… ¿Necesitamos un LLM en el sistema operativo?

    #leyendo https://arstechnica.com/gadgets/2024/03/google-says-the-pixel-8-will-get-its-new-ai-model-but-ram-usage-is-a-concern/

    In conversation about a year ago from social.brucknerite.net permalink

    Attachments

    1. Invalid filename.
      Jan | Rethink the Computer
      Jan turns your computer into an AI machine by running LLMs locally on your computer. It's a privacy-focus, local-first, open-source solution.
    2. Google says running AI models on phones is a huge RAM hog
      from @RonAmadeo
      Google wants AI models to be loaded 24/7, so 8GB of RAM might not be enough.

    Feeds

    • Activity Streams
    • RSS 2.0
    • Atom
    • Help
    • About
    • FAQ
    • Privacy
    • Source
    • Version
    • Contact

    Bobinas P4G is a social network. It runs on GNU social, version 2.0.1-beta0, available under the GNU Affero General Public License.

    Creative Commons Attribution 3.0 All Bobinas P4G content and data are available under the Creative Commons Attribution 3.0 license.