Friday 1 May 2026
QNAP onthult QAI-h1290FX: Een baanbrekende Edge AI Opslag server voor private LLM- en generatieve AI-workloads
On-premises AI versterken met all-flash NVMe Opslag en NVIDIA® RTX™ GPU-versnellingsopties

Taipei, Taiwan, 30 april 2026 – Nu gegevenssoevereiniteit en rekenprestaties strategisch onderscheidende factoren worden voor bedrijven die AI adopteren, blijft de vraag naar private, on-premises AI-infrastructuur groeien. Als reactie op deze verschuiving introduceerde QNAP® Systems, Inc., een toonaangevende innovator in computing, Netwerk en Opslag oplossingen, vandaag de QAI-h1290FX, een next-generation Edge AI Opslag server die is ontworpen om private implementatie van large language modellen (LLM's), Retrieval-Augmented Generation (RAG) zoekmachines en generatieve AI-toepassingen mogelijk te maken.
Gebouwd met server-grade AMD EPYC™-verwerking, met ondersteuning voor NVIDIA® RTX™ GPU-versnelling en twaalf U.2 NVMe/SATA SSD-slots, levert de QAI-h1290FX een krachtige on-prem AI-infrastructuur voor organisaties die lage-latentie-inferentie, volledige gegevens-privacy en operationele controle eisen — zonder afhankelijk te zijn van de cloud.
Aangedreven door QNAP’s ZFS-gebaseerde QuTS hero besturingssysteem, biedt de QAI-h1290FX enterprise-grade gegevens-integriteit, vrijwel onbeperkte snapshots en inline deduplicatie. Het ondersteunt native GPU-toegang in containers via Container Station en GPU passthrough voor virtuele machines via Virtualization Station. IT-teams, ontwikkelaars en onderzoeksgroepen kunnen efficiënt inferentiemodellen, generatieve AI-toepassingen en RAG-pijplijnen draaien met volledige controle over prestaties en resource-allocatie.
De QAI-h1290FX bevat een zorgvuldig geselecteerde set vooraf geladen AI-tools zoals AnythingLLM, OpenWebUI en Ollama, waarmee snelle implementatie van private LLM-workflows mogelijk is. Extra AI-toepassingen zoals Stable Diffusion, ComfyUI, n8n en vLLM worden ook geïntegreerd om de functionaliteit uit te breiden. Dit stelt gebruikers in staat om snel on-prem AI-platformen te bouwen en workflows te automatiseren in een veilige, schaalbare en volledig gecontroleerde omgeving.
“De QAI-h1290FX voldoet aan de groeiende vraag naar lokale AI-infrastructuur,” zegt Oliver Lam, Product Manager bij QNAP. “We wilden de drempels wegnemen bij het bouwen van een GPU-werkstation, het installeren van tools en het configureren van complexe omgevingen. Met de QAI-h1290FX kunnen gebruikers hun AI-modellen direct inzetten en uitvoeren — met volledige controle over hun gegevens en zonder afhankelijkheid van de cloud.”
Belangrijkste kenmerken van de QAI-h1290FX
- All-Flash Opslag-architectuur: Twaalf U.2 NVMe/SATA SSD-sleuven zorgen voor ultrasnelle I/O voor AI-modeluitvoering met hoge frequentie en gegevens-streaming.
- 16-core AMD EPYC™ 7302P-processor: Biedt 32 threads aan serverklasse rekenkracht — ideaal voor AI-inferentie, Virtualisatie en zware parallelle workloads.
- GPU-ready architectuur: Ondersteunt optionele NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation GPU, met tot 96GB GPU-geheugen en ondersteuning voor CUDA®, TensorRT™ en Transformer Engine-versnelling — wat de prestaties voor lokale LLM-inferentie, beeldgeneratie en deep learning-workloads aanzienlijk verhoogt.
- Containerized AI-omgeving & GPU-resourcebeheer: Ondersteunt Docker en LXD met intuïtieve GPU-toewijzing. Gebruikers kunnen AI-tools snel starten via het ingebouwde AI App Center en GPU-resources toewijzen zonder command-line configuratie.
- Volledig lokale implementatie zonder cloudafhankelijkheid: Voer AI-aangedreven chatassistenten, documentzoekmachines of kennisbanken volledig lokaal uit. Houd gevoelige gegevens intern terwijl AI-workflows worden versneld.
- Hogesnelheids-netwerken en schaalbare architectuur: Wordt geleverd met dubbele 25GbE- en dubbele 2.5GbE-poorten. PCIe-sleuven ondersteunen optionele 100GbE-upgrades. Compatibel met QNAP JBOD-uitbreidingsbehuizingen voor grootschalige AI gegevens opslag.
Toepassingsvoorbeelden
- Interne AI-assistenten / On-prem chatinterfaces
Implementeer conversatie-AI-interfaces voor kennisopzoeking, medewerkerstraining en Q&A over beleid — volledig onder uw controle. - Enterprise RAG Search
Maak gebruik van private RAG-pijplijnen om snel en contextueel te zoeken in contracten, rapporten en interne documenten. - Beeldgeneratie voor creatieve teams
Draai Stable Diffusion of ComfyUI voor AI-gestuurde ontwerpworkflows en visuele contentgeneratie. - AI-gestuurde IT-automatisering
Gebruik n8n om inferentietaken, contentgeneratie of waarschuwingen te automatiseren — en integreer AI naadloos in bedrijfsprocessen.
Met de QAI-h1290FX biedt QNAP een praktische, krachtige oplossing voor het inzetten van generatieve AI binnen de grenzen van de onderneming. Of het nu wordt gebruikt in juridische, HR-, creatieve of IT-operaties, het helpt teams om sneller te werken, conform te blijven en volledige controle te behouden over hun AI-strategie — direct aan de edge.
Voor meer informatie en een overzicht van het volledige QNAP-aanbod, bezoek www.qnap.com.