Zum Hauptinhalt springen

Azure OpenAI Deployment

Im folgenden werden die Schritte beschrieben, die notwendig sind, um ein Azure OpenAI-Modell für die Nutzung in LabV bereitzustellen. Damit kann der KI-gestützte LabV-Assistent aktiviert und sicher betrieben werden.

Die Einrichtung erfolgt einmalig durch Ihre IT-Abteilung oder eine technisch verantwortliche Person. Nach Abschluss stehen LabV die notwendigen Verbindungsdaten (Endpoint, API-Key, Deployment-Name) zur Verfügung.


1. Anlegen einer Azure OpenAI Ressource

Um LabV mit Azure OpenAI zu verbinden, muss zunächst eine entsprechende Ressource in Ihrem Azure-Tenant erstellt werden.

  1. Öffnen Sie das Azure Portal und wählen Sie Create a resource.

  2. Suchen Sie nach Azure OpenAI und wählen Sie diesen Dienst aus.

  3. Im nächsten Schritt wählen Sie als Region:

    Germany West Central

    Diese Region ist empfohlen, da sie Datenverarbeitung innerhalb der EU ermöglicht.

  4. Alle weiteren Einstellungen (Subscription, Resource Group, Tags etc.) nach internen Vorgaben auswählen.

  5. Ressource erstellen und warten, bis der Status Ready sichtbar ist.


2. Bereitstellen des gewünschten Modells (Deployment)

Innerhalb der zuvor erstellten Azure OpenAI Ressource wird nun das Modell konfiguriert, das LabV später nutzen soll.

Schritt-für-Schritt

  1. Öffnen Sie die Azure OpenAI Ressource.

  2. Klicken Sie auf „Explore Azure AI Foundry portal“.

  3. Navigieren Sie zu
    Gemeinsame Ressourcen → Bereitstellungen.

  4. Wählen Sie „Modell bereitstellen“.

  5. Entscheiden Sie sich für „Bereitstellen eines Basismodells“.

  6. Wählen Sie das Modell:

    GPT-4o

  7. Klicken Sie auf Bestätigen.

  8. Vergeben Sie anschließend einen Deployment-Namen, z. B.:

    labv-gpt4o
  9. Öffnen Sie nun „Bereitstellungsdetails anpassen“ und setzen Sie:

    • Richtlinie für Modellversionsupgrade:
      Upgrade durchführen, sobald eine neue Standardversion verfügbar ist
    • Ratenlimit:
      Möglichst einen hohen Wert wählen (z. B. 50K Tokens/min).
  10. Bestätigen Sie die Einstellungen und schließen Sie das Deployment ab.


3. Ermitteln der Zugangsdaten für LabV

Nach erfolgreicher Bereitstellung müssen drei Werte aus der Azure OpenAI Ressource extrahiert werden.

Folgende Informationen werden benötigt:

1. Endpoint (Basis-URL der Ressource)

Beispiel:

https://<resource-name>.openai.azure.com/

Neben diesem Endpoint-Format stellt Azure auch alternative Endpoints bereit, z. B.:

https://<resource-name>.cognitiveservices.azure.com/

Beide Varianten sind technisch gültig.
LabV kann mit openai.azure.com sowie cognitiveservices.azure.com Endpoints arbeiten – entscheidend ist, dass der verwendete Endpoint exakt zu der Ressource passt, in der das Modell bereitgestellt wurde.

2. API-Key (Azure OpenAI Schlüssel)

Zu finden unter: Keys and Endpoint.

3. Deployment-Name

Der zuvor vergebene Name:

labv-gpt4o

Alle Werte vertraulich behandeln und über sichere Wege weitergeben.


4. Übergabe der Daten an LabV

Sobald Endpoint, API-Key und Deployment-Name vorliegen, trägt die LabV-Administration diese in der Konfiguration ein.


5. Zusammenfassung

  1. Azure OpenAI Ressource anlegen
  2. GPT-4o Modell bereitstellen
  3. Endpoint, API-Key und Deployment-Name an LabV übergeben

Damit ist das Azure OpenAI Deployment vollständig für LabV vorbereitet.