DeepSeek in coGPT verfügbar
DeepSeek ist der neue LLM-Star am Himmel. Es kann so viel wie das OpenAI 4o Modell, ist dazu noch Open Source und mit wenig Rechenleistung zu betreiben. Das bedeutet, dass Top-KI-Leistung günstig im eigenen Haus betrieben werden kann. Darauf haben wir gewartet, jetzt ist eine datenschutzkonforme Anwendung von generativer KI möglich. Deswegen haben wir mit Hochdruck daran gearbeitet, DeepSeek in coGPT verfügbar zu machen. Et voilà – fertig! In der neuen Version 1.5 ist DeepSeek als modell integriert und kann vom Benutzer für eigene Chats ausgewählt werden.
Sensible Daten bleiben geschützt
Wer KI am Arbeitsplatz einsetzt, muss besonders auf Datenschutz achten. Wenn Prompts Probleme im Unternehmen thematisieren und Zukunftsentwicklungen prognostizieren sollen, sind Betriebsgeheimnisse schnell zu den KI-Anbietern wie OpenAI, Perplexity oder anderen übertragen. Mit einem eigenen LLM-Service im Haus passiert das nun nicht mehr. Die Daten bleiben im Haus. DeepSeek ermöglicht das, indem es als Open Source zur Verfügung steht und damit voll im Eigenbetrieb laufen kann.
DeepSeek in coGPT
In coGPT sind bereits zahlreiche LLM-Modelle und KI-Anbieter integriert:
- OpenAI ChatGPT 3.5 turbo
- OpenAI ChatGPT 4o
- Perpexity Sonar Large
- Microsoft OpenAI GPT3.5
- Microsoft OpenAI GPT4o
- Anthropic Claude 3
Und mit der neue Version 1.5 kommt nun DeepSeek dazu. DeepSeek ist in drei Varianten verfügbar:
- coGPT mit DeepSeek V3, das bei DeepSeek in China betrieben wird
- coGPT mit DeepSeek V3, das bei Perplexity in USA betrieben wird
- coGPT mit DeepSeek, das im Haus des Kunden betrieben wird
Handeln ist die Grundlage des Erfolgs
Die Kombination aus coGPT und DeepSeek ist der Schlüssel für Unternehmen, die datenschutzfreundliche, kosteneffiziente und flexible KI-Lösungen suchen. Es ist die perfekte Partnerschaft für eine moderne Arbeitswelt, die auf Innovation und Sicherheit setzt.
Wir empfehlen, deshalb jetzt zu handeln und coGPT zu testen und Planungen für die generative künstliche Intelligenz im Unternehmen zu starten.
Fragen oder Anfragen? Wir freuen uns auf darauf