OenAI DevDay 2024: Die wichtigsten Neuerungen im Überblick
Vor kurzem fand der OpenAI DevDay 2024 in San Francisco statt. Es standen zahlreiche spannende Neuerungen im Fokus, die Entwicklern dabei helfen sollen, fortschrittliche und kosteneffiziente KI-Anwendungen zu entwickeln. Hier sind die zentralen Ankündigungen, die dein nächstes Projekt auf das nächste Level heben könnten..
SnakeAI – ChatGPT vs. Grok vs. Gemini
Ich habe bereits vor einiger Zeit einmal ChatGPT genutzt, um das klassische Spiel Snake per AI als Python-Script erstellen zu lassen. Seitdem ist einiges an Zeit vergangen und man bekommt Zugriff auf neue Modelle und daher habe ich mir gedacht, dass ich einfach mal einen Prompt nutze und damit die bekannten Large Language Models füttere. In diesem Beitrag gibt es nun das Ergebnis.
Phi-3 Vision mit ONNX als lokales SLM für die Bild-Analyse
Vor nicht allzu langer Zeit hat Microsoft seine Small Language Models der Phi-Familie veröffentlicht. Während der Microsoft Build-Konferenz in Seattle wurde das neue Phi-3 Vision-Modell vorgestellt. Nun möchte ich dir zeigen, wie du dieses Small Language Model ganz einfach in deiner C#-Anwendung mit der ONNX-Version verwenden kannst, um Bilder zu analysieren und zu bearbeiten.
Phi-3 Mini mit ONNX als lokales Small Language Model nutzen
In diesem Blog-Post möchte ich die Vorbereitungen klären, die notwendig sind, um das Phi-3 Mini-Modell mithilfe von ONNX als lokales Small Language Model zu nutzen. Dazu entwickeln wir eine einfache .NET-Konsolenanwendung, die zeigt, wie man das Phi-3 Mini-Modell mit ONNX integriert.
Verwendung von Ollama zur Ausführung lokaler LLMs auf deinem Computer
Mit Ollama ist es möglich, Large Language Models (LLMs) lokal auf deinem PC auszuführen. In diesem Beitrag zeige ich dir, wie du die Software installieren und nutzen kannst.
Einrichtung von Azure OpenAI
In diesem Blog-Post möchte ich die Vorbereitungen klären, die notwendig sind, um mit Azure OpenAI zu arbeiten. Wie der Name schon vermuten lässt, handelt es sich um die OpenAI-Dienste, die innerhalb von Azure laufen und dort administriert werden. Die APIs sind nahezu identisch und man kann mit dem Azure.AI.OpenAI NuGet-Package sowohl mit OpenAI als auch Azure OpenAI kommunizieren.
Einrichtung von OpenAI
In diesem Blog-Post möchte ich die Vorbereitungen klären, die notwendig sind, um mit OpenAI zu arbeiten. Dabei werde ich Schritt für Schritt aufzeigen, wie man den notwendigen Account anlegen und administrieren kann.
Abkürzungen der Künstlichen Intelligenz
In diesem Beitrag möchte ich gerne auf ein paar Abkürzungen eingehen, welche im Umfeld der Künstlichen Intelligenz immer wieder auftreten. Dabei ist zu beachten, dass die meisten Abkürzungen einen englischen Ursprung haben, aber natürlich erfolgt eine Beschreibung in deutscher Sprache.
Unvollständige Geschichte der KI
Seit geraumer Zeit ist der Begriff Künstliche Intelligenz (Artificial Intelligence) aus unserem Sprachgebrauch nicht mehr wegzudenken. Im Oktober 2022 veröffentlichte OpenAI ChatGPT und ermöglichte es damit jedem, Künstliche Intelligenz zu nutzen. Seitdem sind zahlreiche neue Modelle und Dienste aufgetaucht, aber in diesem Beitrag möchten wir uns die Geschichte der KI genauer ansehen.
Snake-Spiel in Python mit ChatGPT entwickelt
Man hört ja immer wieder von ChatGPT und die Möglichkeit, dass die künstliche Intelligenz Aufgaben übernehmen kann und einen bei verschiedenen Aufgaben unterstützen kann. Ich dachte mir einfach mal, dass ich versuchen möchte das klassische Snake-Spiel in Python mit der Hilfe von ChatGPT zu entwickeln.
Mit Azure OpenAI Bilder in C# generieren
Microsoft ermöglicht die Möglichkeit, Bilder mithilfe von Azure OpenAI zu generieren. In diesem Beitrag werde ich dir zeigen, wie du ganz einfach die REST-API nutzen kannst, um Bilder mithilfe künstlicher Intelligenz zu generieren, indem du eine einfache Konsolenanwendung in C# schreibst, um mit deiner Azure OpenAI-Instanz zu verbinden.
Bereitstellen von Azure Open AI Services mit LLM Deployments mit Bicep
Natürlich ist es möglich, die benötigten Azure-Ressourcen über das Azure-Portal zu erstellen, aber da wir versuchen, alles zu automatisieren, können wir Bicep verwenden, um die benötigten Dienste zu erstellen. In diesem Blogbeitrag werde ich erklären, wie ihr die Bicep-Dateien schreiben könnt. Dieser Beitrag ist auch in englischer Sprache bereits auf Medium veröffentlicht worden.