Artificial Intelligence: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
(Die Seite wurde neu angelegt: „== Links == == Lokale Nutzung von LLMs == * https://www.nomic.ai/gpt4all Gpt4All ** für Ubuntu: gpt4all-installer-linux.run ** we have a lightweight use…“) |
|||
(Eine dazwischenliegende Version desselben Benutzers wird nicht angezeigt) | |||
Zeile 15: | Zeile 15: | ||
** unter einer freien Lizenz stehende, plattformübergreifende Software | ** unter einer freien Lizenz stehende, plattformübergreifende Software | ||
** weiteres Paket speziell für Rechner mit AMD-APU | ** weiteres Paket speziell für Rechner mit AMD-APU | ||
{| class="wikitable" | |||
! !! GPT4All !! Jan !! LM Studio !! Ollama | |||
|- | |||
| Lizenz || MIT || AGPLv3 || MIT || MIT | |||
|- | |||
| Oberfläche | |||
|- | |||
| natives GUI-Frontend || ja || ja || ja || ja | |||
|- | |||
| Weboberfläche || nein || nein || nein || ja | |||
|- | |||
| textbasiert || ja || nein || ja || ja | |||
|- | |||
| Funktionen | |||
|- | |||
| simultaner Download mehrerer LLMs || nein || ja || ja || eingeschränkt | |||
|- | |||
| mehrere LLMs pro Thread || ja || ja || ja || ja | |||
|- | |||
| Systemmonitor || ja || ja || ja || nein | |||
|- | |||
| Hardwarekonfiguration || ja || nein || nein || nein | |||
|- | |||
| Sprachmodelle konfigurierbar || ja || ja || ja || ja | |||
|- | |||
| LLMs aus der Cloud || nein || ja || nein || nein | |||
|- | |||
| Chatverläufe kopieren || nein || ja || ja || ja | |||
|- | |||
| Chatbot anhand eigener Dokumente || ja || nein || nein || nein | |||
|- | |||
| Sonderfunktionen | |||
|- | |||
| Installationsassistent || ja || nein || nein || nein | |||
|- | |||
| portabel (Appimage) || nein || ja || ja || nein | |||
|} |
Aktuelle Version vom 8. Januar 2025, 06:24 Uhr
Links[Bearbeiten]
Lokale Nutzung von LLMs[Bearbeiten]
- [Gpt4All]
- für Ubuntu: gpt4all-installer-linux.run
- we have a lightweight use of the Python client as a CLI.
- Modelle: LLama, Nous, Phi-3 Mini, Mini Orca, Gpt4All Snoozy
- GPT4All can run on CPU (AVX or AVX2), Metal (Apple Silicon M1+), and GPU.
- ChatGPT kompatible API
- [Jan]
- Linux als DEB-Paket mit rund 158 MByte
- [LMStudio]
- LM Studio gestattet den Export von Inhalten zur Weiterverarbeitung in unterschiedlichen Formaten.
- [Ollama]
- unter einer freien Lizenz stehende, plattformübergreifende Software
- weiteres Paket speziell für Rechner mit AMD-APU
GPT4All | Jan | LM Studio | Ollama | |
---|---|---|---|---|
Lizenz | MIT | AGPLv3 | MIT | MIT |
Oberfläche | ||||
natives GUI-Frontend | ja | ja | ja | ja |
Weboberfläche | nein | nein | nein | ja |
textbasiert | ja | nein | ja | ja |
Funktionen | ||||
simultaner Download mehrerer LLMs | nein | ja | ja | eingeschränkt |
mehrere LLMs pro Thread | ja | ja | ja | ja |
Systemmonitor | ja | ja | ja | nein |
Hardwarekonfiguration | ja | nein | nein | nein |
Sprachmodelle konfigurierbar | ja | ja | ja | ja |
LLMs aus der Cloud | nein | ja | nein | nein |
Chatverläufe kopieren | nein | ja | ja | ja |
Chatbot anhand eigener Dokumente | ja | nein | nein | nein |
Sonderfunktionen | ||||
Installationsassistent | ja | nein | nein | nein |
portabel (Appimage) | nein | ja | ja | nein |