Offline Llm
Die 10 besten Produkte von Juni 2025
Letzte Aktualisierung:
10. Juni 2025
Independently published
OLLAMA FAST TRACK: A Hands-On Guide to Building Local LLM-Powered Applications
Kostenloser Versand
98
MAXIMALE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#1 GEWINNER
Wiley
Generative AI for Trading and Asset Management
Kostenloser Versand
96
BESTE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#2
Wiley
Hands-On AI Trading with Python, QuantConnect, and AWS
Kostenloser Versand
94
TOP QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#3
Ohulelks
Ohulelks LLM (Large Language Model)- (AX630C) Edge AI-Entwicklungsboard, Geeignet für Den Offline-Modellbetrieb
92
TOP QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#4
▼ Mehr anzeigen
▲ Weniger anzeigen
LLM ist ein integriertes Offline-Inferenzmodul für Large Language Models (LLM), das für Endgeräte entwickelt wurde, die eine effiziente und intelligente Interaktion erfordern. Ob für Smart Homes, Sprachassistenten oder industrielle Steuerungen - LLM bietet ein reibungsloses und natürliches -Erlebnis ohne Abhängigkeit von der Cloud und gewährleistet so Privatsphäre und Stabilität.
Integriert in das StackFlow-Framework und Für /UiFlow-Bibliotheken können intelligente Funktionen mit nur wenigen Codezeilen einfach implementiert werden.
Es verfügt über ein eingebautes Mikrofon, Lautsprecher, TF-Speicherkarte, USB OTG und RGB-Statusleuchte und erfüllt vielfältige Anwendungsanforderungen mit Unterstützung für Sprachinteraktion und Datenübertragung. Das bietet flexible Erweiterungsmöglichkeiten: Der integrierte SD-Kartensteckplatz unterstützt Cold/Hot-Firmware-Upgrades und UART-Kommunikationsschnittstelle vereinfacht Verbindung und Debuggen und gewährleistet kontinuierliche Optimierung und Erweiterung Modulfunktionalität.
Angetrieben vom fortschrittlichen AX630C SoC-Prozessor integriert es eine hocheffiziente 3,2-TOPS-NPU mit nativer Unterstützung für Transformer-Modelle und bewältigt komplexe -Aufgaben mit Leichtigkeit. Ausgestattet mit 4 GB LPDDR4-Speicher und 32 GB eMMC-Speicher unterstützt es das parallele Laden und die sequentielle Inferenz mehrerer Modelle und gewährleistet so reibungsloses Multitasking.
Der USB-Anschluss unterstützt die automatische Master-Slave-Umschaltung und dient sowohl als Debugging-Anschluss als auch zum Verbinden mit zusätzlichen USB-Geräten wie Kameras. Dank Plug-and-Play mit M5-Hosts bietet das LLM eine benutzerfreundliche -Interaktionserfahrung.
93,08 € AUF AMAZON
Independently published
Build Your Own AI Assistant: Run Local LLMs, Automate Workflows, and Avoid Cloud Costs: A Hands-On Guide to Running Offline LLMs Using LLaMA, Ollama, ... — For Developers, Makers, and AI Enthusiasts
Kostenloser Versand
82
SICHERE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#5
Manning Publications
Llms in Production: From Language Models to Successful Products
82
SICHERE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#6
LLM DevOps: Deploy, Monitor, and Scale Your Own AI Models Without the Cloud: A Practical Guide to Running Local LLMs with Ollama, LangChain, Docker, and LangServe (English Edition)
78
GUTE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#7
Wiley
Künstliche Intelligenz für Dummies
Kostenloser Versand
75
GUTE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#8
Wrtysully
Wrtysully LLM (Large Language Model)- (AX630C) Edge AI-Entwicklungsboard, Geeignet für Den Offline-Modellbetrieb
74
GUTE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#9
▼ Mehr anzeigen
▲ Weniger anzeigen
Angetrieben vom fortschrittlichen AX630C SoC-Prozessor integriert es eine hocheffiziente 3,2-TOPS-NPU mit nativer Unterstützung für Transformer-Modelle und bewältigt komplexe -Aufgaben mit Leichtigkeit. Ausgestattet mit 4 GB LPDDR4-Speicher und 32 GB eMMC-Speicher unterstützt es das parallele Laden und die sequentielle Inferenz mehrerer Modelle und gewährleistet so reibungsloses Multitasking.
Es verfügt über ein eingebautes Mikrofon, Lautsprecher, TF-Speicherkarte, USB OTG und RGB-Statusleuchte und erfüllt vielfältige Anwendungsanforderungen mit Unterstützung für Sprachinteraktion und Datenübertragung. Das bietet flexible Erweiterungsmöglichkeiten: Der integrierte SD-Kartensteckplatz unterstützt Cold/Hot-Firmware-Upgrades und UART-Kommunikationsschnittstelle vereinfacht Verbindung und Debuggen und gewährleistet kontinuierliche Optimierung und Erweiterung Modulfunktionalität.
LLM ist ein integriertes Offline-Inferenzmodul für Large Language Models (LLM), das für Endgeräte entwickelt wurde, die eine effiziente und intelligente Interaktion erfordern. Ob für Smart Homes, Sprachassistenten oder industrielle Steuerungen - LLM bietet ein reibungsloses und natürliches -Erlebnis ohne Abhängigkeit von der Cloud und gewährleistet so Privatsphäre und Stabilität.
Integriert in das StackFlow-Framework und Für /UiFlow-Bibliotheken können intelligente Funktionen mit nur wenigen Codezeilen einfach implementiert werden.
Der USB-Anschluss unterstützt die automatische Master-Slave-Umschaltung und dient sowohl als Debugging-Anschluss als auch zum Verbinden mit zusätzlichen USB-Geräten wie Kameras. Dank Plug-and-Play mit M5-Hosts bietet das LLM eine benutzerfreundliche -Interaktionserfahrung.
92,28 € AUF AMAZON
Brinkmann, Sylvia
Der achtsame Anwalt: "Notfallkoffer" für ALLE Stressgeplagten*: Entfalten Sie Ihr volles Potential
Kostenloser Versand
65
GUTE QUALITÄT
AUF AMAZON ANSEHEN
Amazon.de
#10
llm