Wenn Sie daran interessiert sind, Ihren eigenen ChatGPT-Klon zu erstellen, aber kostenlose und quelloffene Alternativen bevorzugen, sind Sie hier genau richtig. In diesem Artikel werden wir 12 Alternativen zu ChatGPT erkunden, die Sie verwenden können, um Ihr eigenes Chatbot-Modell zu erstellen, ohne Geld ausgeben zu müssen.
Die Vorteile von kostenlosen und quelloffenen ChatGPT-Alternativen
Bevor wir uns den spezifischen Alternativen zuwenden, ist es wichtig, die Vorteile der Verwendung quelloffener Sprachmodelle gegenüber ChatGPT zu verstehen.
- Datenschutz. Viele Unternehmen möchten die Kontrolle über ihre Daten behalten und Dritten keinen Zugriff gewähren.
- Anpassungsfähigkeit. Quelloffene Alternativen ermöglichen es Entwicklern, benutzerdefinierte Sprachmodelle mit ihren eigenen Daten zu trainieren und bei Bedarf Filter für bestimmte Themen anzuwenden.
- Kostengünstigkeit. Quelloffene GPT-Modelle ermöglichen es Ihnen, hochentwickelte Sprachmodelle zu trainieren, ohne sich um teure Hardware kümmern zu müssen.
- Demokratisierung der KI. Die Verwendung quelloffener Modelle ebnet den Weg für weitere Forschung, die zur Lösung realer Probleme eingesetzt werden kann.
Nachdem wir die Vorteile geklärt haben, gehen wir nun zu den kostenlosen und quelloffenen ChatGPT-Alternativen über.
1. Llama
Einführung in Llama
Llama steht für Large Language Model Meta AI. Es ist ein Modell, das eine Reihe von Größen von 7 Milliarden bis 65 Milliarden Parametern umfasst. Die Forscher von Meta AI konzentrierten sich auf die Verbesserung der Modellleistung, indem sie das Volumen der Trainingsdaten erhöhten, anstatt die Anzahl der Parameter. Sie gaben an, dass das 13-Milliarden-Parameter-Modell das 175-Milliarden-Parameter-GPT-3-Modell übertraf. Llama verwendet die Transformer-Architektur und wurde auf 1,4 Billionen Tokens trainiert, die durch Web-Scraping von Wikipedia, GitHub, Stack Exchange, Büchern des Project Gutenberg und wissenschaftlichen Artikeln auf ArXiv extrahiert wurden.
Python-Code für Llama
# Installiere das Paket
pip install llama-cpp-python
from llama_cpp import Llama
llm = Llama(model_path="./models/7B/ggml-model.bin")
output = llm("Q: Liste der Planeten des Sonnensystems? A: ", max_tokens=128, stop=["Q:", "n"], echo=True)
print(output)
2. Llama 2
Was ist neu in Llama 2
Es gibt einige wesentliche Unterschiede zwischen Llama 2 und Llama:
Trainingsdaten: Llama 2 wurde auf 40 % mehr Token trainiert als Llama, insgesamt 2 Billionen Token. Dies verleiht ihm eine breitere Wissensbasis und ermöglicht es ihm, genauere Antworten zu generieren.Modellgrößen: Llama 2 ist in drei Größen erhältlich: 7 Milliarden Parameter, 13 Milliarden Parameter und 70 Milliarden Parameter. Die maximale Größe von Llama beträgt 65 Milliarden Parameter.Chat-Optimierung: Llama 2-Chat ist eine spezialisierte Version von Llama 2, die für bidirektionale Unterhaltungen optimiert wurde. Es wurde auf einem Datensatz menschlicher Unterhaltungen trainiert, was es ihm ermöglicht, natürlichere und ansprechendere Antworten zu generieren.Sicherheit und Voreingenommenheitsminderung: Llama 2 wurde mit besonderem Augenmerk auf Sicherheit und Voreingenommenheitsminderung trainiert. Dies bedeutet, dass es weniger wahrscheinlich ist, toxische oder schädliche Inhalte zu generieren.Open Source: Llama 2 ist Open Source, was bedeutet, dass jeder es für Forschungs- oder kommerzielle Zwecke verwenden kann, im Gegensatz zu Llama, das nicht für kommerzielle Zwecke verwendet werden kann.
Python-Code für Llama 2
Um das Llama2-Modell mit 7 Milliarden Parametern auszuführen, ist hier der Referenzcode:
%cd /content !apt-get -y install -qq aria2 !git clone -b v1.3 https://github.com/camenduru/text-generation-webui %cd /content/text-generation-webui !pip install -r requirements.txt !pip install -U gradio==3.28.3 !mkdir /content/text-generation-webui/repositories %cd /content/text-generation-webui/repositories !git clone -b v1.2 https://github.com/camenduru/GPTQ-for-LLaMa.git %cd GPTQ-for-LLaMa !python setup_cuda.py install !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-7b-Chat-GPTQ/raw/main/config.json -d /content/text-generation-webui/models/Llama-2-7b-Chat-GPTQ -o config.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-7b-Chat-GPTQ/raw/main/generation_config.json -d /content/text-generation-webui/models/Llama-2-7b-Chat-GPTQ -o generation_config.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-7b-Chat-GPTQ/raw/main/special_tokens_map.json -d /content/text-generation-webui/models/Llama-2-7b-Chat-GPTQ -o special_tokens_map.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-7b-Chat-GPTQ/resolve/main/tokenizer.model -d /content/text-generation-webui/models/Llama-2-7b-Chat-GPTQ -o tokenizer.model !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-7b-Chat-GPTQ/raw/main/tokenizer_config.json -d /content/text-generation-webui/models/Llama-2-7b-Chat-GPTQ -o tokenizer_config.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-7b-Chat-GPTQ/resolve/main/gptq_model-4bit-128g.safetensors -d /content/text-generation-webui/models/Llama-2-7b-Chat-GPTQ -o gptq_model-4bit-128g.safetensors %cd /content/text-generation-webui !python server.py --share --chat --wbits 4 --groupsize 128 --model_type llama
Für das Llama2-Modell mit 13 Milliarden Parametern können Sie sich auf den folgenden Code beziehen:
%cd /content !apt-get -y install -qq aria2 !git clone -b v1.8 https://github.com/camenduru/text-generation-webui %cd /content/text-generation-webui !pip install -r requirements.txt !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/resolve/main/model-00001-of-00003.safetensors -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o model-00001-of-00003.safetensors !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/resolve/main/model-00002-of-00003.safetensors -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o model-00002-of-00003.safetensors !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/resolve/main/model-00003-of-00003.safetensors -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o model-00003-of-00003.safetensors !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/raw/main/model.safetensors.index.json -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o model.safetensors.index.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/raw/main/special_tokens_map.json -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o special_tokens_map.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/resolve/main/tokenizer.model -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o tokenizer.model !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/raw/main/tokenizer_config.json -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o tokenizer_config.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/raw/main/config.json -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o config.json !aria2c --console-log-level=error -c -x 16 -s 16 -k 1M https://huggingface.co/4bit/Llama-2-13b-chat-hf/raw/main/generation_config.json -d /content/text-generation-webui/models/Llama-2-13b-chat-hf -o generation_config.json %cd /content/text-generation-webui !python server.py --share --chat --load-in-8bit --model /content/text-generation-webui/models/Llama-2-13b-chat-hf
3. Alpaca
Einführung in Alpaca
Ein Team von Forschern der Universität Stanford hat ein quelloffenes Sprachmodell namens Alpaca entwickelt. Es basiert auf Metas großem Sprachmodell namens Llama. Das Team verwendete die GPT-API von OpenAI (text-davinci-003), um das 7-Milliarden-Parameter-Llama-Modell zu verbessern. Ziel des Teams ist es, KI kostenlos verfügbar zu machen, damit Wissenschaftler weitere Forschungsarbeiten durchführen können, ohne sich um teure Hardware für die Ausführung dieser speicherintensiven Algorithmen kümmern zu müssen. Obwohl diese quelloffenen Modelle nicht für den kommerziellen Einsatz verfügbar sind, können kleine Unternehmen sie dennoch verwenden, um ihre eigenen Chatbots zu erstellen.
Wie Alpaca funktioniert
Das Stanford-Team begann seine Forschung mit dem kleinsten Sprachmodell von Llama, dem 7-Milliarden-Parameter-Llama-Modell, und trainierte es mit 1 Billion Token vor. Sie begannen mit 175 von Menschen geschriebenen Anweisungs-Antwort-Paaren aus dem Auto-Instruktions-Seed-Set. Anschließend verwendeten sie die ChatGPT-API, um ChatGPT zu bitten, mit dem Seed-Set weitere Anweisungen zu generieren. Auf diese Weise erhielten sie etwa 52.000 Beispielgespräche, die sie für weitere Verfeinerungen des Llama-Modells unter Verwendung des Hugging Face-Trainingsframeworks verwendeten.
Llama ist in verschiedenen Größen erhältlich: 7B, 13B, 30B und 65B Parameter. Alpaca wurde auch auf 13B-, 30B- und 65B-Modelle erweitert.
Alpaca Leistung
Das Alpaca-Modell wurde mit ChatGPT bei Aufgaben wie dem Erstellen von E-Mails, sozialen Medien und Produktivitätstools getestet, und Alpaca gewann 90 Mal, während ChatGPT 89 Mal gewann. Das Modell kann in der realen Welt für verschiedene Zwecke verwendet werden. Es wird Forschern im Bereich der ethischen KI und Cybersicherheit, wie bei der Erkennung von Betrug und Phishing, eine große Hilfe sein.
Alpaca Einschränkungen
Wie die kommerzielle Version von ChatGPT hat Alpaca auch ähnliche Einschränkungen, wie Halluzinationen, Toxizität und Stereotypen. Mit anderen Worten, es kann verwendet werden, um Text zu generieren, der Desinformation, Rassismus und Hass gegenüber schutzbedürftigen Teilen der Gesellschaft verbreitet.
Alpaca Speicheranforderungen
Alpaca kann nicht auf CPUs ausgeführt werden, es benötigt eine GPU. Für die 7B- und 13B-Modelle reicht eine einzelne GPU mit 12 GB RAM aus. Für das 30B-Modell sind zusätzliche Systemressourcen erforderlich.
Python-Code für Alpaca
Hier ist ein Referenzcode für Alpaca. Dies ist eine Chat-Anwendung, die das Alpaca 7B-Modell verwendet:
import sys
sys.path.append("/usr/local/lib/python3.9/site-packages")
!nvidia-smi
!git clone https://github.com/deepanshu88/Alpaca-LoRA-Serve.git
%cd Alpaca-LoRA-Serve
!python3.9 -m pip install -r requirements.txt
base_model = 'decapoda-research/llama-7b-hf'
finetuned_model = 'tloen/alpaca-lora-7b'
!python3.9 app.py --base_url $base_model --ft_ckpt_url $finetuned_model --share
Denken Sie daran, dass dies nur ein Referenzcode für Alpaca 7B ist. Sie können ihn anpassen, um Modelle unterschiedlicher Größe zu verwenden, wie Alpaca 13B und Alpaca 30B.
Alpaca Ausgabe
Unten sehen Sie ein Beispiel für die Ausgabe von Alpaca als Antwort auf zwei relativ einfache Fragen. Eine Frage betrifft ein allgemeines Thema und die andere betrifft das Coding. Alpaca beantwortet beide Fragen korrekt.
4. GPT4All
Einführung in GPT4All
Das Nomic AI-Team ließ sich von Alpaca inspirieren und verwendete die GPT-3.5-Turbo-API von OpenAI, um etwa 800.000 Prompt-Antwort-Paare zu sammeln, um 430.000 Assistenten-Prompts und Generierungen zu erstellen, darunter Codes, Dialoge und Erzählungen. Die 800.000 Paare sind etwa 16-mal größer als Alpaca. Das Interessante an diesem Modell ist, dass es auf CPUs ausgeführt werden kann und keine GPU benötigt. Wie Alpaca ist es auch Open Source, was bedeutet, dass Sie es für kommerzielle Zwecke verwenden und problemlos auf Ihrem Computer ausführen können.
Wie GPT4All funktioniert
Es funktioniert ähnlich wie Alpaca und basiert auf dem 7-Milliarden-Parameter-Llama-Modell. Das Team trainierte Llama-Modelle mit 7B und das endgültige Modell wurde auf den 437.605 nachbearbeiteten assistentenartigen Prompts trainiert.
GPT4All Leistung
Bei der Verarbeitung natürlicher Sprache wird die Perplexität verwendet, um die Qualität von Sprachmodellen zu bewerten. Sie misst, wie überrascht ein Sprachmodell wäre, eine neue Sequenz von Wörtern zu sehen, die es noch nie zuvor gesehen hat, basierend auf seinen Trainingsdaten. Ein niedrigerer Perplexitätswert zeigt an, dass das Sprachmodell besser darin ist, das nächste Wort in einer Sequenz vorherzusagen und somit genauer ist. Das Nomic AI-Team behauptet, dass ihre Modelle eine niedrigere Perplexität als Alpaca haben. Die tatsächliche Genauigkeit hängt jedoch von der Art des Prompts ab, den Sie verwenden. Alpaca könnte in einigen Fällen eine bessere Genauigkeit aufweisen.
GPT4All Speicheranforderungen
Es kann auf einer CPU mit 8 GB RAM ausgeführt werden. Wenn Sie einen Laptop mit 4 GB RAM haben, könnte es an der Zeit sein, auf mindestens 8 GB aufzurüsten.
Python-Code für GPT4All
Hier ist ein Referenzcode für GPT4All. Sie können ihn als Referenz verwenden, ihn an Ihre Bedürfnisse anpassen oder ihn so wie er ist ausführen. Es liegt ganz bei Ihnen, wie Sie den Code am besten an Ihre Bedürfnisse anpassen.
# Klone das Git-Repository !git clone --recurse-submodules https://github.com/nomic-ai/gpt4all.git # Installiere die erforderlichen Pakete cd /content/gpt4all !python -m pip install -r requirements.txt cd transformers !pip install -e . cd ../peft !pip install -e . # Starte das Training !accelerate launch --dynamo_backend=inductor --num_processes=8 --num_machines=1 --machine_rank=0 --deepspeed_multinode_launcher standard --mixed_precision=bf16 --use_deepspeed --deepspeed_config_file=configs/deepspeed/ds_config.json train.py --config configs/train/finetune.yaml # Lade den GPT4All-Modell-Checkpoint herunter cd /content/gpt4all/chat !wget https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin # Führe das Konversationssystem aus !./gpt4all-lora-quantized-linux-x86
Wenn Sie den Code auf einem lokalen Computer ausführen, der ein anderes Betriebssystem als Linux verwendet, verwenden Sie stattdessen die folgenden Befehle:
Windows (PowerShell): ./gpt4all-lora-quantized-win64.exe Mac (M1): ./gpt4all-lora-quantized-OSX-m1 Mac (Intel): ./gpt4all-lora-quantized-OSX-intel
GPT4All Ausgabe
GPT4All konnte eine Frage zum Coding nicht korrekt beantworten. Dies ist nur ein Beispiel, und wir können die Genauigkeit des Modells nicht anhand eines einzelnen Falls bewerten. Es könnte bei anderen Prompts gut funktionieren, daher hängt die Genauigkeit des Modells von Ihrer Verwendung ab. Außerdem, als ich es nach 2 Tagen erneut ausgeführt habe, funktionierte es gut für Fragen zum Coding. Es scheint, dass sie das Modell weiter verfeinert haben.
GPT4All Fehlerbehebung
Wenn Sie Probleme mit der verteilten Version haben, die kein NCCL hat, könnte dies daran liegen, dass CUDA auf Ihrem Computer nicht installiert ist.
Einige Benutzer haben seltsame Fehler auf der Windows 10/11-Plattform gemeldet. Als letzte Instanz können Sie das Windows Subsystem for Linux installieren, das Ihnen ermöglicht, eine Linux-Distribution auf Ihrem Windows-Computer zu installieren und dem obigen Code zu folgen.
5. GPT4All-J
Dieses Modell hat einen ähnlichen Namen wie das vorherige, aber der Unterschied ist, dass beide Modelle vom selben Nomic AI-Team stammen. Die einzige Änderung ist, dass es jetzt auf GPT-J anstelle von Llama trainiert wurde. Der Vorteil des Trainings auf GPT-J ist, dass GPT4All-J jetzt unter einer Apache-2-Lizenz steht, was bedeutet, dass Sie es für kommerzielle Zwecke verwenden und problemlos auf Ihrem Computer ausführen können.
6. Dolly 2
Das Databricks-Team hat ein Sprachmodell basierend auf dem Pythia-Modell von EleutherAI entwickelt, das anschließend auf etwa 15.000 Anweisungen aus einem Korpus verfeinert wurde. Es ist in drei Größen erhältlich: 12B, 7B und 3B Parameter.
Dolly 2 Speicheranforderungen
Es benötigt eine GPU mit etwa 10 GB RAM für das 7B-Modell mit 8-Bit-Quantisierung. Für das 12B-Modell sind mindestens 18 GB GPU-VRAM erforderlich.
Python-Code für Dolly 2
Hier ist ein Referenzcode für Dolly 2. Sie können ihn als Referenz verwenden, um auf den Python-Code und eine detaillierte Beschreibung des Dolly-Modells zuzugreifen.
7. Vicuna
Einführung in Vicuna
Ein Team von Forschern der UC Berkeley, CMU, Stanford und UC San Diego hat dieses Modell entwickelt. Es wurde auf Llama unter Verwendung eines Chat-Datasets, das von der ShareGPT-Website extrahiert wurde, verfeinert. Die Forscher behaupten, dass das Modell eine Qualität von über 90 % im Vergleich zu OpenAI ChatGPT-4 erreicht hat. Es ist erwähnenswert, dass seine Leistung fast der von Bard entspricht. Sie verwendeten das Trainingsprogramm von Alpaca und verbesserten zwei Aspekte weiter: Mehrrunden-Gespräche und lange Sequenzen.
Python-Code für Vicuna
Sie können sich auf diesen Beitrag – Vicuna Schritt-für-Schritt-Anleitung beziehen, um auf den Python-Code und eine detaillierte Beschreibung des Vicuna-Modells zuzugreifen.
8. StableVicuna
Einführung in StableVicuna
Stability AI hat StableVicuna veröffentlicht, eine verfeinerte Version des 13B Vicuna-Modells. Um das Vicuna-Modell zu verbessern, haben sie es mithilfe von überwachtem Fine-Tuning (SFT) weiter trainiert. Sie verwendeten drei verschiedene Datensätze, um es zu trainieren:
- OpenAssistant Conversations Dataset, das 161.443 menschliche Konversationsnachrichten in 35 verschiedenen Sprachen enthält.
- GPT4All Prompt Generations, ein Datensatz von 437.605 Prompts und Antworten, die von GPT-3.5 generiert wurden.
- Alpaca, ein Datensatz von 52.000 Prompts und Antworten, die vom text-davinci-003-Modell generiert wurden.
Sie verwendeten trlx, um ein Belohnungsmodell zu trainieren. Dieses Modell wurde mithilfe ihres weiteren SFT-Modells eingerichtet. Das Belohnungsmodell wurde unter Verwendung von drei Datensätzen mit menschlichen Präferenzen trainiert:
- OpenAssistant Conversations Dataset mit 7213 Präferenzbeispielen.
- Anthropic HH-RLHF mit 160.800 Etiketten von Personen, die ihre Meinung zur Nützlichkeit oder Harmlosigkeit von KI-Assistenten äußern.
- Stanford Human Preferences mit 348.718 menschlichen Präferenzen für Antworten auf Fragen oder Anweisungen in verschiedenen Bereichen wie Kochen oder Philosophie.
Schließlich wurde das SFT-Modell unter Verwendung von RLHF mit trlX durch einen Prozess namens Proximal Policy Optimization trainiert. So wurde StableVicuna erstellt.
StableVicuna Speicheranforderungen
Um das 4-Bit GPTQ StableVicuna-Modell auszuführen, werden etwa 10 GB GPU-VRAM benötigt.
StableVicuna Leistungsprobleme
Stability AI behauptet, dass dieses Modell eine Verbesserung gegenüber dem ursprünglichen Vicuna-Modell darstellt, aber viele Leute haben das Gegenteil berichtet. Dieses Modell „halluziniert“ mehr als das Originalmodell und produziert schlechtere Antworten. Mit anderen Worten, das Modell generiert ungenaue Ausgaben, die nicht zur Frage passen. Da diese Modelle gerade erst veröffentlicht wurden, ist noch eine strenge Bewertung erforderlich. Es ist möglich, dass dieses Modell in einigen Aufgaben besser abschneiden kann, aber in anderen viel schlechter.
Python-Code für StableVicuna
Wir können das Modell mit Text Generation WebUI ausführen, was die Ausführung des quelloffenen LLM-Modells erleichtert. Der folgende Code führt eine 4-Bit-Quantisierung durch, die die Speicheranforderungen des Modells reduziert und die Ausführung mit weniger VRAM ermöglicht.
%cd /content !apt-get -y install -qq aria2 !git clone -b v1
9. Alpaca GPT-4 Modell
Einführung in Alpaca GPT-4
Alpaca GPT-4 ist ein Sprachmodell, das von OpenAI entwickelt wurde. Es ist eine verbesserte Version des Alpaca-Modells, die 10 Billionen Token für das Training verwendet. Alpaca GPT-4 ist bekannt für seine Fähigkeit, hochwertige Texte und kohärente Antworten zu generieren.
Python-Code für Alpaca GPT-4
Derzeit hat OpenAI den Code oder das vortrainierte Modell für Alpaca GPT-4 nicht veröffentlicht. Sie können jedoch andere kostenlose und quelloffene Alternativen verwenden, die in diesem Artikel aufgeführt sind, um Ihren eigenen Chatbot zu erstellen.
10. Cerebras-GPT
Einführung in Cerebras-GPT
Cerebras-GPT ist ein Sprachmodell, das von dem KI-Unternehmen Cerebras entwickelt wurde. Es verwendet die parallele Verarbeitungstechnologie des Cerebras-Chips, um große Sprachmodelle zu trainieren. Cerebras-GPT ist bekannt für seine hochkarätige Leistung und seine Fähigkeit, große Datenmengen effizient zu verarbeiten.
Cerebras-GPT Speicheranforderungen
Cerebras-GPT benötigt eine GPU mit einer großen Menge an VRAM, vorzugsweise 32 GB oder mehr, um große Sprachmodelle auszuführen.
Python-Code für Cerebras-GPT
Derzeit hat Cerebras den Code oder das vortrainierte Modell für Cerebras-GPT nicht veröffentlicht. Sie können jedoch die kostenlosen und quelloffenen Alternativen verwenden, die in diesem Artikel aufgeführt sind, um Ihren eigenen Chatbot zu erstellen.
11. GPT-J 6B
Einführung in GPT-J 6B
GPT-J 6B ist ein großes Sprachmodell, das von EleutherAI entwickelt wurde. Es wurde auf 6 Milliarden Parametern unter Verwendung fortschrittlicher Techniken des maschinellen Lernens trainiert. GPT-J 6B ist bekannt für seine Fähigkeit, kohärente und hochwertige Texte zu einer Vielzahl von Themen zu generieren.
Python-Code für GPT-J 6B
Derzeit hat EleutherAI den Code oder das vortrainierte Modell für GPT-J 6B nicht veröffentlicht. Sie können jedoch die kostenlosen und quelloffenen Alternativen verwenden, die in diesem Artikel aufgeführt sind, um Ihren eigenen Chatbot zu erstellen.
12. OpenChatKit Modell
Einführung in das OpenChatKit Modell
Das OpenChatKit Modell ist ein quelloffenes Chatbot-Modell, das von OpenAI entwickelt wurde. Es basiert auf der Transformer-Architektur und kann verwendet werden, um Chatbots mit kohärenten und hochwertigen Antworten zu erstellen.
Python-Code für das OpenChatKit Modell
Derzeit hat OpenAI den Code oder das vortrainierte Modell für das OpenChatKit Modell nicht veröffentlicht. Sie können jedoch die kostenlosen und quelloffenen Alternativen verwenden, die in diesem Artikel aufgeführt sind, um Ihren eigenen Chatbot zu erstellen.
Pubblicato in Entwicklung & Code, Künstliche Intelligenz
Hinterlasse jetzt einen Kommentar