Webinar: Zuverlässige KI oder Zufallstreffer? KI-Modelle richtig beurteilen

Begonnen von juliane_hoe, 03.03.2026, 11:40*

« vorheriges - nächstes »

juliane_hoe

Webinar: Zuverlässige KI oder Zufallstreffer? KI-Modelle richtig beurteilen am Donnerstag, den 2. April 2026, von 10 bis 12 Uhr)

Künstliche Intelligenz verändert Geschäftsabläufe. Doch wie können Sie sicher sein, dass ein KI-Modell in realen Szenarien zuverlässig funktioniert? In diesem praxisorientierten Webinar vermitteln wir Ihnen das notwendige Wissen und die erforderlichen Tools, um KI-Modelle zu bewerten, bevor Sie sich für den Einsatz in der Produktion entscheiden.

In unserem Webinar lernen Sie, wie Sie die Leistung von KI-Modellen anhand konkreter Metriken und realistischer Testansätze bewerten können. Ganz gleich, ob Sie Ihr erstes KI-Projekt in Betracht ziehen oder bestehende Implementierungen verbessern möchten: Dieses Webinar vermittelt Ihnen Rahmenbedingungen für fundierte Entscheidungen.

Agenda:

Begrüßung und Einstieg

    Überblick über das Webinar und Ziele
    Warum die Modellbewertung für den Geschäftserfolg wichtig ist

 Konzepte der Modellbewertung

    Generalisierung auf unbekannte Daten
    Wann findet die Evaluierung im KI-Lebenszyklus statt?

Datengrundlagen

    Datenarten und Ground-Truth-Labels verstehen
    Trainingsdaten vs. Testdaten: Richtige Trennverfahren
    Tests realistisch und repräsentativ gestalten
    Checkliste zur Datenqualität für eine zuverlässige Evaluierung

Metriken zur Leistungsbewertung

    Zweck und Interpretation von Leistungskennzahlen
    Klassifizierungs- und Regressionskennzahlen
    Schwellenwerte und geschäftliche Kompromisse verstehen
    Zuverlässigkeitsindikatoren

 Praxisbeispiel vom Mittelstand-Digital Zentrum Saarbrücken

    Geschäftsziele
    Aufbau einer realistischen Testumgebung
    Checkliste: Inbetriebnahme und Überwachungsstrategie

Herausforderungen und Best Practices

    Häufige Fallstricke bei der Bewertung von KI
    Bewährte Strategien für den Erfolg

Hands-on in einem Low Code/No Code-Tool

    Trainierung, Validierung und Test eines Modells in einem KNIME-Workflow
    Diskussion der Kennzahlen

Frage- und Antwortrunde

Ziele:

  •     Verständnis dafür, wie KI-Modelle mithilfe geeigneter Datentrennungstechniken validiert werden können
  •     Kenntnisse über wichtige Leistungskennzahlen und wann diese anzuwenden sind
  •     Praktische Ansätze für realistische Tests, die Ihre Geschäftsumgebung widerspiegeln
  •     Bewusstsein für häufige Fallstricke und wie kostspielige Fehler vermieden werden können
  •     Eine Checkliste für die Inbetriebnahme beim Übergang von der Evaluierung zur Produktion

Zielgruppe:

  •     Geschäftsführung und Entscheidungsträger:innen
  •     Führungskräfte mit Digitalisierungs- oder Innovationsverantwortung
  •     Fachkräfte aus IT, Datenanalyse, Qualitätssicherung oder Prozessmanagement
  •     Unternehmen, die KI-Lösungen einsetzen oder deren Einsatz planen
  •     Branchenübergreifend mit Fokus auf produzierende Unternehmen, Dienstleister und technologieorientierte KMU

Jetzt buchen: https://www.digitalzentrum-magdeburg.de/termine/zuverlaessige-ki-oder-zufallstreffer-ki-modelle-richtig-beurteilen/#em-event-booking-form
--
Juliane Höbel-Müller (M.Sc. Informatik)
KI-Trainerin
Mittelstand-Digital Zentrum Magdeburg

Aktuelle Veranstaltungsreihe: KI & neue DenKMUster
https://www.digitalzentrum-magdeburg.de/ki-kurz-informiert-2/