...
Als input kan ik wel melden dat ik Deepseek LLM in Alpaca (Ollama client, https://flathub.org/apps/com.jeffser.Alpaca ) heb geimporteerd en wat eerste vragen heb gesteld, het valt tot nu toe niet tegen.
...
Je hebt het model dus lokaal draaien? Hoe krachtig moet je systeem zijn om dat een beetje fatsoenlijk te kunnen draaien?
Nou, ik heb het gedraaid op mijn MSI Katana, die heeft een i7/2.3 GHz CPU en 16 GB RAM, dus die kan wel wat. Maar dat Alpaca crasht regelmatig. En dan moet je nog uitkijken welk pakket je installeert, de zwaarste is bijna 40 GB, dus ik heb de lichtere versie gedownload.
Je kan Ollama ook in de terminal draaien, maar dat heb ik niet gedaan.
Voor de liefhebbers, je kan Deepseek ook als app gewoon gebruiken op je smartphone. Ik gebruik een low-grade motorolaatje waar een moderne tiener de neus voor zou ophalen, en het draait als een speer erop.
Ik heb Deepseek wel buiten de Google repos geinstalleerd, want voordat je het weet draait iemand daar de knop om.