Künstliche Intelligenz & Automation in GREYHOUND

Ob beim Übersetzen von Mails, der Erkennung von Absichten, der Klassifizierung von Daten oder Chatbots: So genannte “künstliche Intelligenz” kann heute bereits an vielen Stellen im Arbeitsalltag helfen. Ab Version 5.5.212 build 3571 verfügt GREYHOUND über DSGVO-konforme Automations-Features sowie für alle, die das gesamte Weltwissen nutzen & in natürlicher Sprache kommunizieren (lassen) wollen, auch über eine optionale Anbindung an OpenAI (ChatGPT). In diesem Handbuch-Artikel ist beschrieben, welche Komponenten nötig sind, um die Automation in GREYHOUND nutzen zu können, wie sie konfiguriert wird und wie sich KI bereits heute im Arbeitsalltag nutzen lässt.


Beispielhafter Chat-Verlauf im GREYHOUND Webchat mit der angebundenen KI “ChatGPT”.

Funktionsübersicht

GREYHOUND Automation-Pack (inkl. OpenAI-Addon) Addon “GREYHOUND Connect für OpenAI” only
Eine KI behauptet vieles, wenn der Tag lang ist… Statt der Vollautomation in der Mail-Beantwortung gibt es deshalb in GREYHOUND einen Weg mit vorheriger Prüfung: Die Generierung eines KI-Antwortvorschlags. Mehr erfahren Vollautomatisches Versenden von Mail-Antworten – mit einem einzigen Regelknoten. Theoretisch können alle Mail-Anfragen wie von Zauberhand beantworten werden, sodass der Posteingang stets leer ist. Mehr erfahren
Ein wirklich brauchbarer Chat-Bot benötigt vor allem eines: Produktspezifisches Wissen. Dieses kann in GREYHOUND über Klassifikatoren gezielt angelernt werden. Mehr erfahren  Umsetzung eines Chat-Bots, der auf das gesamte Weltwissen zurückgreifen kann und sogar Folgefragen versteht und dabei in natürlicher Sprache kommunizieren kann. Mehr erfahren
Durch die Auslieferung von Echtzeit-Prozess-Informationen aus der Warenwirtschaft oder dem ERP via Chat-Bot hältst Du Dir alle „Wo ist mein Paket“-Anfragen vom Hals! Texte in der richtigen Tonalität erstellen, kürzen oder umschreiben. Auch eine Prüfung auf Rechtschreib- und Grammatikfehler ist möglich – und das in allen Sprachen.
Human Takeover: Wenn der Chat-Bot mal nicht weiter weiß, kann er das Anliegen im Zweifelsfall an einen Service-Mitarbeiter aus Fleisch und Blut in GREYHOUND übergeben.
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Notwendige Komponenten für KI

Um GREYHOUND KI-fähig zu machen, sind zwingend folgende Komponenten nötig:

  • GREYHOUND in der Version 5.5.212 build 3571 oder neuer
  • Addon “GREYHOUND Connect für OpenAIoder das Modul “Automation Pack” (inkludiert das OpenAI-Addon und weitere Automations-Funktionen wie die Datenübernahme aus Drittsystemen)

Sowie optional, bei gewünschter Anbindung von ChatGPT / OpenAI:

  • OpenAI API (Achtung: Es braucht einen API-Account bei OpenAI, NICHT einen ChatGPT-Account!)

Nötige Module dem Vertrag hinzubuchen

Um die KI in GREYHOUND nutzen zu können, ist im GREYHOUND Control Center (GCC) das sogenannte “Automation Pack” oder das Addon “GREYHOUND Connect für OpenAI” dem bestehenden Vertrag hinzu zu buchen:

  • Nach dem Login oben im Menü zu Verträge > V-123456789-0 > Produkte bearbeiten navigieren.
  • Hier das “Automation Pack” oder nur das Addon “GREYHOUND Connect für OpenAI” anhaken und die Änderungen prüfen sowie übernehmen.

Hinweis für Eigenbetriebler

  • Kunden im Individualbetrieb müssen die Verwendung des gebuchten Addons zusätzlich im GREYHOUND Admin aktivieren. Außerdem sind die Funktionen des neuen Addons erst nach einem Neustart des GREYHOUND Clients verfügbar.
  • Kunden im überwachten Eigenbetrieb müssen sicherstellen, dass Port 9443 in der Firewall wie hier beschrieben eingehend und ausgehend freigegeben ist.

Notwendige Server-Konfiguration

Um die künstliche Intelligenz in GREYHOUND zu aktivieren, ist eine Einstellung global im Server nötig. Wie bzw. wo die richtige Stellschraube zu finden ist, das ist somit von der gewählten Betriebsart abhängig:

Hosting

Hosting-Kunden loggen sich bitte im GCC ein und navigieren sich dort oben im Menü zu Verträge > V-123456789-0 > Hosting-Paket. Auf dieser Seite auf den Button „Einstellungen“ klicken:

Anschließend ganz unten scrollen, um auf den Button „Systemeinstellungen“ zu klicken. Auf der Seite, die sich dann öffnet, den Part zum Thema „Intelligente Klassifizierung“ finden.

Die Standard-Einstellungen sind wie folgt:

Überwachter Eigenbetrieb

Kunden im überwachten Eigenbetrieb loggen sich bitte im GCC ein und navigieren sich dort oben im Menü zu Verträge > V-123456789-0 > Eigene Server. Auf dieser Seite auf den grünen Namen des Servers klicken und anschließend auf den Button  „Einstellungen“:

Anschließend ganz unten scrollen, um auf den Button „Systemeinstellungen“ zu klicken. Auf der Seite, die sich dann öffnet, den Part zum Thema „Intelligente Klassifizierung“ finden.

Die Standard-Einstellungen sind identisch mit denen auf dem obigen Screenshot im Abschnitt Hosting.

Individualbetrieb

Kunden im Individualbetrieb nehmen die Änderungen bitte direkt auf dem Server vor:

Datenschutzhinweise

Hinsichtlich des Datenschutzes ist zu unterscheiden zwischen dem Einsatz der in GREYHOUND integrierten Funktionen und der Anbindung von OpenAI. Erstere ist DSGVO-konform, bei OpenAI / ChatGPT ist Vorsicht geboten:

  • Die in GREYHOUND integrierten Funktionen zur Datenanalyse, Konsolidierung und Auswertung sind allesamt DSGVO-konform. Wer das GREYHOUND Hosting nutzt, für den gilt: Alle Daten verbleiben ausschließlich auf dem dedizierten Server des Kunden – es findet keine Konsolidierung der Daten aller Anwender durch uns, GREYHOUND, statt. Jeder Kunde kocht quasi sein eigenes Süppchen – mit allen Vor- und Nachteilen, die damit einhergehen. Keine Daten verlassen also jemals den Server des Kunden und sind jederzeit geschützt durch Zugriffe von Außen. Für Kunden im Eigenbetrieb gilt: Die gesamte Hoheit der Daten liegt beim Anwender selbst. Ebenso die Verantwortung, die damit einhergeht.
  • Wer OpenAI (ChatGPT) an GREYHOUND anbinden will, der muss wissen: OpenAI selbst erfasst erstmal per se keine personenbezogenen Daten – es sei denn, der Nutzer gibt diese ausdrücklich freiwillig ein. Aber natürlich speichert OpenAI die Daten, die Anwender eingeben, um Antworten zu generieren. Das ist ja der Sinn dieser KI – sie sammelt und konsolidiert alle Daten, die sie kriegen kann, um daraus zu lernen. Alles, was über diesen Kanal rein- oder rausgeht, landet also auf US-Servern und wird in irgendeiner Form weiterverarbeitet. Die Übertragung vom GREYHOUND Server zum OpenAI-Server erfolgt dabei SSL-verschlüsselt. Personenbezogene oder andere vertrauliche Daten sollten dennoch keinesfalls in ChatGPT / OpenAI einfließen! Vor der Anbindung ist es zwingend nötig, sich mit der Privacy Policy von OpenAI vertraut zu machen und individuell abzuwägen, ob ein DSGVO-konformer Einsatz möglich ist und wenn ja, unter welchen Voraussetzungen. Als Stichworte seien hier zu nennen: Drittlandübermittlung; Informationspflichten; Auftragsverarbeitungsvertrag und Transfer-Impact-Assessment; Grundsatz der Datenrichtigkeit; Unterscheidung von Trainingsdaten & Betriebsdaten sowie Rechtsgrundlage für die Verarbeitung – natürlich können wir an dieser Stelle nicht rechtlich im Detail auf alle Punkte eingehen.

    Hinweis: Wir können an dieser Stelle keine (datenschutz-)rechtliche Beratung für unsere Kunden leisten.

ChatGPT via OpenAI API anbinden

GREYHOUND unterstützt auch die Einbindung von KI-unterstützter Antwortgenerierung auf Basis von OpenAI Sprachmodellen. So lassen sich per KI vollautomatisch Textantworten auf Anfragen via Chat oder Mail generieren – in Sekundenschnelle und erstaunlich passend.

Addon “GREYHOUND Connect für OpenAI” buchen

Um ChatGPT in GREYHOUND nutzen zu können, ist das Addon “GREYHOUND Connect für OpenAI” nötig. Wie dieses zu buchen ist, kann weiter oben nachgelesen werden.

OpenAI Account anlegen

Um die OpenAI API anzubinden, ist auf dieser Seite ein neuer Account zu erstellen (falls nicht schon vorhanden): https://openai.com/api/

Achtung
Es braucht einen API-Account bei OpenAI – NICHT einen ChatGPT-Account. Zudem muss im API-Account unter “Payment methods” eine gültige Zahlungsmethode hinterlegt sein.

Nach dem Login kann man links im Menü auf „API keys“ klicken, um über den Button „Create new secret key“ einen API-Schlüssel mit einem beliebigen Namen mit “Permissions: All” zu erstellen, der nötig ist, um GREYHOUND und OpenAI zu verbinden. Dieser Schlüssel ist unbedingt sicher aufbewahren – man kann diesen später nicht mehr abrufen! Am besten behält man ihn griffbereit, denn der muss gleich in den GREYHOUND Servereinstellungen hinterlegt werden.

Weiter unten links im Menü gibt es den Punkt “Settings” und dort den Unterpunkt „Billing“. Hier muss noch eine “Payment method” hinterlegt werden – denn standardmäßig ist ein neu erstellter Zugang ein kostenloser Zugang. Um die API nutzen zu können, ist allerdings ein „Paid Plan“ nötig. Deshalb muss der Account nun einmal umgestellt werden in einen Bezahlaccount, d.h. unter „Payment methods“ muss eine Kreditkarte hinterlegt werden. Bei ChatGPT bzw. OpenAI zahlt man nach Verbrauch. Um keine unerwartet hohe Rechnung zu erhalten, ist es ratsam, sogenannte „Usage Limits“ zu definieren.

API-Daten im Server hinterlegen

Anschließend können die API-Daten in GREYHOUND im Server wie folgt hinterlegt werden:

  • Hosting-Kunden loggen sich bitte im GCC ein und navigieren sich dort oben im Menü zu Verträge > V-123456789-0 > Hosting-Paket. Auf dieser Seite auf den Button „Einstellungen“ klicken. Anschließend ganz unten scrollen, um auf den Button „Systemeinstellungen“ zu klicken. Auf der Seite, die sich dann öffnet, ganz nach unten bis zum Part „Erweiterte KI“ scrollen.
  • Kunden im überwachten Eigenbetrieb loggen sich bitte im GCC ein und navigieren sich dort oben im Menü zu Verträge > V-123456789-0 > Eigene Server. Auf dieser Seite auf den grünen Namen des Servers klicken und anschließend auf den Button „Einstellungen“. Anschließend ganz unten scrollen, um auf den Button „Systemeinstellungen“ zu klicken. Auf der Seite, die sich dann öffnet, ganz nach unten bis zum Part „Erweiterte KI“ scrollen.
  • Kunden im Individualbetrieb nehmen die Änderungen bitte direkt auf dem Server vor.

Um ChatGPT an GREYHOUND anzubinden, ist nun hier der individuelle API-Key sowie die „Organization“ aus OpenAI einzutragen:

Die erforderlichen Rechte: Profile

Für GREYHOUND Operatoren

Unter Einstellungen > Profile sind für den GREYHOUND Operator und/oder diejenigen anderen Profile, deren Mitglieder die Künstliche Intelligenz in GREYHOUND konfigurieren können sollen, folgende Rechte zu erteilen:

  • Erweiterte KI verwenden (wenn die Funktion KI-Antwortvorschlag genutzt werden soll)
  • Intelligente Klassifizierung verwenden
  • Intelligente Klassifizierung trainieren*
  • Text-Klassifikatoren bearbeiten*

* Achtung: Diese Rechte dürfen nur ausgewählte und entsprechend ausgebildete Personen bekommen, die wissen, was sie tun! Für normale Anwender unbedingt den Haken nur bei „Intelligente Klassifizierung verwenden“ setzen.

Für GREYHOUND Anwender

Für alle, die lediglich automatische Textvorschläge von der KI generieren können sollen, ist das folgende Recht nötig:

  • Erweiterte KI verwenden (wenn die Funktion KI-Antwortvorschlag genutzt werden soll)
  • Intelligente Klassifizierung verwenden

KI-basierten Inhalt erstellen

Die gesamte Kundenkommunikation durch die KI automatisieren, sodass keinerlei menschliches Personal mehr möglich ist? Ein Szenario, das einige herbeisehnen und andere fürchten. Wir können dazu sagen: Wenn man die KI die gesamte Kommunikation übernehmen ließe, würde diese alles Mögliche behaupten – die dahinterliegenden Prozesse würden aber überhaupt nicht stimmen!  So unbegrenzt die Möglichkeiten auch erscheinen – die KI ersetzt derzeit (noch?) keine echte Manpower, können aber eine echte Entlastung im Kundenservice sein.

Wenn man das Addon “GREYHOUND Connect für OpenAI” gebucht und die API wie hier beschrieben angebunden hat, taucht bei allen Nachrichten-Elementtypen der Button “KI-basierten Inhalt generieren” auf. Nutzt man diese Funktion, dann analysiert OpenAI den Text, erkennt die Absicht des Absenders und liefert einen passenden Mail-Antworttext oder erstellt anhand eines Prompts komplett neue Inhalte. Konkret sind folgende Funktionen möglich:

  1. Korrigiere Rechtschreibung und Grammatik
  2. Kürze den Text
  3. Erweitere den Text
  4. Formuliere den Text um
  5. Fasse den Text zusammen
  6. Erstelle Anrede
  7. Erstelle Antwortvorschlag
  8. Inhalt aus Prompt generieren

Für die ersten fünf Optionen ist es nötig, einen bereits geschriebenen / eingefügten Text zu markieren, bevor man den Button anklickt:

Für die Optionen 6 und 7 – Erstelle Anrede und Antwortvorschlag erstellen – ist es nötig, dass auf eine Anfrage geantwortet wird, dass also bereits ein Anliegen da ist, auf das reagiert wird, z. B. in Form einer Mail-Antwort. Dabei wird stets der gesamte bisherige Mail-Verlauf berücksichtigt und auch, sofern angelegt, in ähnlichen Nachrichten innerhalb des GREYHOUNDs gesucht. Zudem ist es optional möglich, vorher einen Text einzugeben und zu markieren, um die Art der Antwort zu steuern. Werden keine ähnlichen Nachrichten gefunden und es wurde auch kein manueller Textkontext mitgegeben, wird keine Antwort erstellt, da ein einfaches “Rumgerate” seitens der KI in der Praxis einen erfahrungsgemäß keinen wirklichen Mehrwert bietet. Dadurch wird verhindert, dass unnötig OpenAI API Kosten entstehen, wobei die Antwort in den meisten Fällen eh nicht brauchbar ist. Ab GREYHOUND Version 5.5.229 build 3636 kann der KI-Antwortvorschlag sogar auf Addon-Daten aus angebundenen Drittsystemen und benutzerdefinierte Felder zurückgreifen und diese Werte ausgeben. So sind Texte in sprachlich guter Qualität, angereichert mit individuellen Informationen wie Kundennummer, Bestellnummer, Trackinglink etc. innerhalb von Sekunden von OpenAI formuliert.

Option 8, das KI-basierte Generieren von Inhalten, ist immer und überall möglich. Wie genau das geht, ist im Folgenden beschrieben.

Inhalt aus Prompt generieren

Klickt man auf den Button “KI basierten Inhalt erstellen“, taucht ganz unten der Punkt “Inhalt aus Prompt generieren“, in dem eine ganze Menge steckt:

Klickt man den Punkt an öffnet sich ein Fenster, in das man ein beliebiges Prompt eingeben sowie Textlänge, Textstil und Stimmung bestimmen kann. Tipp: Die KI gibt tendenziell immer die Antwort, die das Gegenüber vermeintlich hören will. Will man dem Kunden eine “negative” Nachricht überbringen, z. B. “Nein, ein Umtausch ist nicht möglich”, dann ist dies durch die Auswahl einer negativen Stimmung möglich. Diese Option heißt nicht, dass die Antwort miesgelaunt formuliert ist, sondern dass entspricht eher einer “ablehnenden”, “verneinenden” Haltung.

Durch Klick auf den Button “Generieren” wird ein Textvorschlag durch die künstliche Intelligenz erstellt, der durch “Einfügen” direkt in das Element übernommen werden kann:

Achtung
In unseren Augen ergibt es keinen Sinn, die KI sämtliche Kundenanfragen vollautomatisch ohne menschliches Zutun beantworten zu lassen. Denn der Kunde würde in vielen Fällen Informationen bekommen, die überhaupt nicht der Wahrheit entsprächen. Heute gilt: Formulierungshilfen, ja. Aber der menschliche Verstand, der die nötigen Stellschrauben im Hintergrund dreht, wenn nötig auf die Warenwirtschaft zugreift und den Text auf Logik prüft, ist (derzeit noch) unerlässlich.

Nötige Benutzerdefinierte Felder

Einige KI-Funktionen im Messenger-Umfeld sind abhängig vom erkannten Gesprächsinhalt oder der Absicht. Oder sie wollen Werte an den GREYHOUND Client via E-Mail weitergeben zwecks Kontaktaufnahme eines Chat-Partners. Für die genannten Zwecke sind einige benutzerdefinierte Felder erforderlich, die im Folgenden beschrieben sind.

Die folgenden nötigen benutzerdefinierten Felder sollten standardmäßig bereits angelegt sein:

Sollten sie aus Versehen gelöscht worden sein, bitte zu Einstellungen > Benutzerdefinierte Felder navigieren und dort auf den Button „Neues Feld erstellen“ klicken, um die nachfolgenden Felder vom Typ String für den Elementtyp „Messenger Nachricht“ anzulegen:



Wenn Daten aus Drittsystemen / Addons abgerufen und via KI ausgeliefert werden sollen (zum Beispiel der Versandstatus via Chatbot), dann sind zusätzlich folgende Felder nötig für die Elementtypen “E-Mail”, Messenger-Nachricht” und “Kontakt”:

Text-Klassifikatoren: Der Lernalgorithmus

Sind die nötigen Rechte im Profil (wie hier beschrieben) gesetzt, kann der GREYHOUND Operator unter Einstellungen > Text-Klassifikatoren die KI individuell konfigurieren. Um verstehen zu können, was genau da eigentlich passiert, wird es in diesem Kapitel etwas fachspezifisch – aber keine Sorge, wir haben das KI-Basiswissen versucht, so kurz und verständlich wie möglich zu gestalten. Generell ist nur wichtig zu wissen, dass Klassifikatoren dazu genutzt werden, um Datenmengen in verschiedene Kategorien aufzuteilen. Bei einer Spam-Erkennung gibt es zwei Kategorien: Spam vs. Kein-Spam. Im Arbeitsalltag kann es zig verschiedene Anwendungsfälle geben, z. B.: Um welche Art von Dokument handelt es sich: Rechnung, Vertrag oder Kündigung? Um welche Art von Mail handelt es sich: eBay Statusnachricht, Reklamation, Produktanfrage oder oder oder? Welche Kategorien es gibt und welche Werte überhaupt “klassifiziert” werden sollen, dass lässt sich individuell steuern.

Was sind Klassifikatoren?

Unter Klassifikatoren versteht man eine spezielle Art von Maschinellen Lernalgorithmen, mit denen man Daten in mehrere Kategorien einteilen kann. Sie werden häufig in der Künstlichen Intelligenz eingesetzt, um komplexe Datenmuster zu erkennen und zu klassifizieren. Sie sind besonders nützlich, wenn es darum geht, komplexe Probleme zu lösen oder Vorhersagen über Daten zu treffen.

In GREYHOUND stehen vier verschiedene Verfahren zur Auswahl, die beide der Analyse und Generierung von Text dienen: 1) „Support Vector Machine“, das Wahrscheinlichkeitsmodell 2) „Logic Regression“ und die “3) Vektor Ähnlichkeitssuche” und 4) “Vektor Klassifikator”. Welche die richtige ist, hängt davon ab, in welcher Form man das Ergebnis haben möchte:

  1. Logistische Regression (LibLinear) gibt Wahrscheinlichkeiten als Ergebnisse aus. Es wird verwendet, um Vorhersagen über die Wahrscheinlichkeit eines bestimmten Ereignisses zu machen. Nachteil dieses Modells: Ressourcenintensiv. Vorteil: Kann auch große Datenmengen verarbeiten.
  2. Beim Support Vector Klassifikator (LibLinear) erhält man als Ergebnis ein “Ja” oder “Nein” bzw. “trifft zu” oder “trifft nicht zu”. Vorteil des Modells: Verbraucht weniger Ressourcen als die logistische Regression, ist aber dennoch für große Datenmengen geeignet.
  3. Die Vektor Ähnlichkeitssuche (GREYHOUND) gibt als Ergebnis den kompletten gefunden Eingabetext aus. Es kann z. B. verwendet werden, um FAQ-Einträge anzulernen und diese via Chat-Bot ausgeben zu können.
  4. Der Vektor Klassifikator (GREYHOUND) gibt als Ergebnis ein Prozentwert aus. Im Gegensatz zur logistischen Regression ist er sehr viel effizienter und verbraucht deutlich weniger Ressourcen. Dafür ist er aber auch nur für kleine Datenmengen von bis zu 100 Zeilen geeignet. Perfekt für Chats.

Um zu verstehen, was das ganze soll, wird im Folgenden ein Text-Klassifikator erläutert, der im Standard mit GREYHOUND ausgeliefert werden, wenn man die oben beschriebenen Vertragskomponenten gebucht hat: Der Klassifikator für Textsprache.

Text-Klassifikator: Textsprache

Der Klassifikator Textsprache ist in der Lage, die Sprache einer Kundenanfrage zu erkennen. Via Regelsystem kann man diese Information dann in ein benutzerdefiniertes Feld schreiben lassen. Eine Funktion, die bereits unzählige GREYHOUND Anwender seit Jahren erfolgreich nutzen.

Pro Sprache ist es hierbei sinnvoll, eine Zeile zu verwenden. Auf das Sprachkürzel, z. B. „DE“, muss ein Semikolon folgen und dahinter müssen typische deutsche Wörter folgen. Dabei geht es nicht um Akademikersprache, sondern Wörter, die in der jeweiligen Sprache besonders oft auftauchen, also beispielwiese: der, die, das, es, sind, ist etc. In der Mail-Kommunikation ebenfalls typisch: sehr, geehrte, grüße, anbei. Die Listen können an die eigenen Bedürfnisse ergänzt werden. Eine weitere Sprache lässt sich ganz einfach ergänzen, indem sie unten in der neuen Zeile im gleichen Schema erweitert wird.

Über die Klassifikatoren ist ein Anlernen der KI auch möglich unabhängig von real existierenden Daten / Elementen in GREYHOUND. Man kann die KI einfach über den Reiter „Trainingsdaten“ mit beliebigen Daten “füttern”.

Zur Veranschaulichung – Die nötige Regel zur automatischen Ermittlung der Textsprache sieht ohne KI in GREYHOUND so aus:

Dank der KI ist heute nur noch ein einziger Regelknoten nötig: „Intelligente Textklassifizierung“. Die Regel, die dasselbe tut, sieht nun so aus:

Eigene Klassifikatoren bauen

Um einen eigenen Klassifikator zu bauen, geht man (in Kurzform) wie folgt vor:

  1. Unter Einstellungen > Text-Klassifikatoren auf „Neuen Klassifikator erstellen“ klicken.
  2. Modell wählen: 1) Das Wahrscheinlichkeitsmodell „Support Vector Machine“, 2) „Logic Regression“, “3) Vektor Ähnlichkeitssuche” oder 4) Vektor Klassifikator (siehe oben)
  3. Datenfeld festlegen: Wo sollen die Ergebnisse der Klassifikation “hingeschrieben werden”? Zur Auswahl stehen ein benutzerdefiniertes Feld, das dediziert bestimmt werden kann, oder aber ein Thema, eine Gruppe, eine Kennzeichnung oder ein Benutzer. Ebenso kann hier “Keines” gewählt werden.
  4. Klassen definieren und Beispielwerte liefern. Die Syntax dabei ist wie folgt: Alles vor dem Semikolon ist die Klasse, danach folgen Textdaten, also Beispielwerte, welche diese Klasse repräsentieren.
  5. Den Klassifikator über den Reiter „Trainingsdaten“ mit beliebigen Daten “füttern”.
  6. Mit “Ok” speichern.
  7. Klassifikator erneut öffnen und auf den Button „Modell trainieren“ klicken. Die Klassifikatoren werden ausschließlich manuell trainiert.
  8. Prüfergebnisse checken: Klickt man auf „Modell prüfen“, dann sieht man, wie gut das Ergebnis ist. Je nach gewähltem Modell ist das Ergebnis ein Prozentwert oder ein Ja/Nein-Ergebnis.
  9. Eine Regel bauen, welche die Werte sinnvoll nutzt: Hat man zum Beispiel einen Klassifikator zur Themenanalyse erstellt, dann kann nun mit dem Regelknoten “Intelligente Textklassifizierung” als Datenfeld “Thema” definiert werden, sodass vollautomatisch das Thema ermittelt und auch in GREYHOUND gesetzt wird.

Wir belassen es an der Stelle mit dieser Tiefe an Informationen – für die meisten GREYHOUND-Nutzer wird das Thema “Eigene Klassifikatoren” ohnehin nicht relevant sein, da sie eine Menge an IT- und mathematischen Kenntnissen voraussetzt.

Tipp
Ähnlich wie auch bei den Regeln in GREYHOUND gilt auch hier:

1) Von grob nach fein vorgehen.
2) Nicht zu viel in einen Klassifikator packen, sondern mehrere Text-Klassifikatoren bauen.

Also zum Beispiel im ersten Schritt den Versuch machen, die Absicht zu erkennen: „Frage zum Produkt“, „Reklamation“, „Lieferstatus“ oder „Sonstiges“. Dieser Wert kann via Regel in ein benutzerdefiniertes Feld geschrieben werden. Im zweiten Schritt könnte ein weiterer Klassifikator alle Anfragen aus dem Bereich „Frage zu Produkt“ scannen und zuordnen, welcher Shop gemeint ist (=Gruppenzuordnung). Ebenso könnte ein dritter Klassifikator die Textsprache automatisch erkennen, sodass die Anfrage durch Schreiben des Wertes in ein benutzerdefiniertes Feld direkt im richtigen Filter zur Bearbeitung landet.

KI-Regelknoten im Überblick

Die zur Verfügung stehenden Regelknoten sind davon abhängig, ob “nur” die GREYHOUND interne KI verwendet wird oder auch das OpenAI-Addon.

GREYHOUND interne KI-Regelknoten

Im Folgenden sind die KI-Regelknoten gelistet, die im GREYHOUND KI-Paket enthalten sind und die GREYHOUND interne KI abdecken.

Intelligente Textklassifizierung

Der Regelknoten „Intelligente Textklassifizierung“ basiert auf der GREYHOUND eigenen künstlichen Intelligenz. Er lässt sich nutzen, um den Text automatisch zu “durchleuchten” und entsprechendes Wissen ins dafür vorgesehene benutzerdefinierte Felder zu schreiben, z. B. die Textsprache:

  1. Für die Verwendung des Regelknotens ist ein Klassifikator nötig, der im ersten Dropdown-Feld ausgewählt werden muss. Die über den Klassifikator ermittelten Werte / Ergebnisse lassen sich dann über diesen Regelknoten in GREYHOUND überführen – und zwar an verschiedene Stellen, die im darunter liegenden Feld ausgewählt werden:
  2. Wohin sollen die von der KI ermittelten Ergebnisse geschrieben werden? Wie soll das Wissen angewendet werden? Wohin mit den Ergebnissen? Zur Auswahl hier stehen: Keines, Benutzerdefiniertes Feld, aber auch auf Gruppen, Benutzer, Themen und Kennzeichnungen. Beispiel: Wenn durch den Klassifikator “Textsprache” eine Sprache ermittelt werden konnte, soll die ermittelte Sprache (aka die Klasse) bitte in das dazugehörige benutzerdefinierte Feld “Textsprache” geschrieben werden. Wählt man hingegen Gruppe, Benutzer, Thema oder Kennzeichnung aus, dann werden diese Werte in GREYHOUND durch den Regelknoten automatisch “intelligent” vergeben.
  3. Wählt man “Benutzerdefiniertes Feld” aus, ist Feld Nr. überhaupt nur 3 aktiv, ansonsten ist es ausgegraut. Denn an dieser Stelle legt man das benutzerdefiniertes Feld fest, in das der von der KI ermittelte Ausgabewert geschrieben werden soll.
KI Ausschluss

Elemente vom KI-Training auszuschließen, z. B. wenn aus Datenschutzgründen Personaldokumente nicht berücksichtigt werden sollen, ist entweder manuell im Einzelfall oder regelbasiert möglich:

  • Um einzelne Elemente manuell vom GREYHOUND integrierten KI-Training auszuschließen, ist ein Rechtsklick auf das jeweilige Element zu machen und „Bearbeiten“ zu wählen, um dann anzuhaken, welche Rückgabewerte ausgeschlossen werden sollen – für einen kompletten Ausschluss sind also alle Haken zu setzen bei “KI Ausschluss”:
  • Ein KI Ausschluss mehrerer Elemente, z. B. aller Elemente mit dem Thema „Statusnachrichten“ per Regel, ist ebenfalls möglich. Dazu gibt es den Regelknoten „KI Ausschluss“. Auch hier kann man individuell festlegen, welche Rückgabekanäle ausgeschlossen werden sollen. Es gilt also: Alle Haken gesetzt = kompletter KI-Ausschluss.

Mit diesem Regelknoten lassen sich zum Beispiel alle eBay Statusnachrichten vom Training exkludieren. Das kann dann so aussehen:

Hinweis
Dieser Ausschluss gilt natürlich nicht für OpenAI, sondern nur für die GREYHOUND-eigene KI! Bei Nutzung von OpenAI / ChatGPT hat man (derzeit noch?) keinerlei Handhabe, was mit den Daten geschieht, die an das System übergeben werden.

OpenAI Connect Regelknoten

Die Nutzung des Addons “GREYHOUND Connect für ChatGPT” erweitert die KI in GREYHOUND mit minimalen Einrichtungsaufwand um das gesamte Weltwissen aus über 220 Billionen Datensätzen. Um dieses sinnvoll nutzen zu können und diverse Fragen und Problem beantworten zu können, stehen eine Reihe neuer Regelknoten zur Verfügung, die im Folgenden beschrieben sind:

OpenAI Absicht erkennen

Der Regelknoten „OpenAI Absicht erkennen“ versucht anhand des Gesprächsinhalts zu erkennen, was die Absicht des Absenders ist: Geht es um eine Reklamation? Will der Kunde wissen, wo sein Paket ist? Hat er Fragen zu einem Produkt?

Für den Regelknoten ist es nötig, ein benutzerdefiniertes Feld namens „Gesprächsinhalt“ zu haben. Falls dieses noch nicht vorhanden ist, sollte es wie hier beschrieben angelegt werden. Das benutzerdefinierte Feld ist im oberen Dropdrown Menü auszuwählen. Die Auswahl “gpt-3.5-turbo” bezieht sich auf das ChatGPT-Sprachmodell, das verwendet wird. Mehr dazu hier. Im Text-Eingabefeld unten gibt an durch Enter getrennt pro Zeile jeweils einen Wert an, der im benutzerdefinierten Feld ausgegeben werden sollen als Ergebnis, also die vermeintlichen Absichten wie z. B. “Reklamation”, “Preise” oder “Produkt”.

Sinnvoll in einer Regel eingebaut kann dieser Regelknoten beispielsweise so aussehen:

Hier würde durch die ChatGPT-Anbindung versucht, die Absicht einer Anfrage zu erkennen und diese – sofern erkannt – in ein benutzerdefiniertes Feld “Gesprächsinhalt” zu schreiben. Kann keine Absicht erkannt werden und ist das benutzerdefiniertes Feld leer, dann soll bitte eine weitere Regel ausgeführt würden namens “Frage nicht verstanden”. Dieses Szenario ist vor allem bei Chat-Bots, also schnelllebiger Kommunikation, denkbar.

OpenAI Embedding erstellen

Der Regelknoten “OpenAI Embedding erstellen” erstellt eine Art Index über all das Wissen, das im eigenen GREYHOUND liegt und sendet dieses an OpenAI, damit sinnvolle, unternehmensbezogene Antworten möglich sind. Standardmäßig hat OpenAI zwar das sogenannte Weltwissen, aber keine spezifischen Informationen zum eigenen Unternehmen und seinen Produkten – das lässt sich mit Embeddings ändern.

Die Embeddings-Regel ist die Grundvoraussetzung für das das effektive Funktionieren der KI-Antwortvorschläge, denn durch sie können ähnliche Antworten gefunden werden.

Mehr zum Thema Embeddings ist hier in den FAQ beschrieben.

Automatische OpenAI Antwort (nur E-Mails)

Der Regelknoten Automatische OpenAI Antwort (nur E-Mails)“ dient dem vollautomatischen Versenden von Antworten für E-Mails auf Basis von OpenAI. Oder anders gesagt: Mit diesem Regelknoten lassen sich KI-generierte Auto-Antworten für E-Mails generieren und versenden – Mailanfragen beantworten wie von Zauberhand.

Im Praxiseinsatz kann das dann wie auf dem Screenshot gezeigt aussehen: Wenn eine Mail eingeht, schicke bitte eine Antwort raus, die unter Einsatz der künstlichen Intelligenz formuliert wurde, verwende dafür bitte die Vorlage „Standardvorlage [E-Mail]“. Die Vorlage, die hier im Regelknoten ausgewählt wird, ist zum einen für die Optik relevant. Will man wirklich Mail von der KI vollautomatisch beantworten lassen, müsste eine eigene Vorlage zu diesem Zweck angelegt werden, in der zudem eine feste Signatur gesetzt ist ohne den Einsatz von Variablen.

ACHTUNG
Diese Funktion sollte natürlich niemals auf den gesamten Mail-Posteingang angewendet werden! Die Antworten der KI mögen zwar bereits gut formuliert sein, aber wenn ein Kunde fragt, ob er seine Bestellung stornieren kann, würde ChatGPT auf diese Anfrage nett formuliert antworten, dass man die Bestellung natürlich stornieren könne und er dies bereits soeben erledigt habe. Aber Moment mal – die Anfrage wäre dann aus dem Posteingang verschwunden, der Kunde würde denken, die Bestellung sei storniert, dabei würde das überhaupt nicht der Wahrheit entsprechen! Womöglich ist der Artikel sogar von der Reklamation ausgeschlossen – ChatGPT hat hierzu keinerlei Informationen und kann solche Anfrage entsprechend gar nicht korrekt beantworten. Die KI liefert lediglich die Antwort, von der zu erwarten ist, das das Gegenüber sie hören möchte. Wenn solche automatischen Antworten rausgesendet werden soll, dann lediglich in bestimmten Fällen zu bestimmten Zwecken!

Denkbar wäre zum Beispiel folgendes Szenario: Über eine vorherige Regel wird versucht, die Absicht von Anfragen zu erkennen (siehe Regelknoten “OpenAI Absicht erkennen”). Ist das benutzerdefinierte Feld “Gesprächsinhalt” nun gleich “Produktfrage: Kinderwagen“, dann sende über den Regelknoten “OpenAI Antwortvorlage [E-Mail]” eine Mail raus in einem bestimmten Design, die den Interessenten auf eine informative Landingpage über Kinderwagen weist, die tolle-kinderwagen.de lautet. Anschließend setze das Element in den Status “Beantwortet”.

Der Regelknoten “Automatische OpenAI Antwort (nur E-Mails)” sollte also eher als Möglichkeit für individuelle Autoantworten anstelle von anonymen Massenmails angesehen werden – keinesfalls als Alternative für echte Service-Mitarbeiter. Denn: Die KI wird alles mögliche behaupten, wenn der Tag lang ist – “Na klar kannst Du Dein gekauftes Haus stornieren, ich habe dies soeben für Dich erledigt...”

Automatische OpenAI Antwort mit Kontext (nur E-Mails)

Mit dem Regelknoten “Automatische OpenAI Antwort mit Kontext (nur E-Mails)” ist eine Verknüpfung von bestehenden, benutzerdefinierten, kontextrelevanten Daten und dem OpenAI-Sprachmodell möglich. Er erlaubt es, kontextsensitiv über benutzerspezifische Themen automatisiert via Mail intelligent zu “sprechen”.

Hierbei muss ein Klassfikator ausgewählt werden. So lässt sich produkt- oder autftragsspezifisches Wissen an OpenAI übergeben. So entsteht aus internem Wissen und natürlichem Sprachmodell eine Mail-Antwort mit echtem Mehrwert für den Kundenservice: Mit spezifischem, korrekten Wissen aus dem eigenen Unternehmen, verpackt in “schöne Sprache”.

Typisches Beispiel für die Verwendung dieses Regelknotens: In einem Klassifikator namens “FAQ” würden häufig gestellte Fragen von der Website eingepflegt werden zu Versandzeiten, Lieferkosten und so weiter. Wenn eine Mail eingeht, wird geschaut, ob hierzu in den FAQ eine Antwort vorliegt. OpenAI formuliert dann das Wissen aus dem FAQ-Eintrag um in eine Mail-Antwort.

Hinweis zur Vorlage: Die Vorlage, die hier im Regelknoten ausgewählt wird, ist zum einen für die Optik relevant. Will man wirklich Mail von der KI vollautomatisch beantworten lassen, müsste eine eigene Vorlage zu diesem Zweck angelegt werden, in der zudem eine feste Signatur gesetzt ist ohne den Einsatz von Variablen.

Der Regelknoten ist konzipiert als Abfrage. Bedeutet, dass er zwei Ausgänge hat, wie man weiter verfahren möchte. So besteht die Möglichkeit, sofern nichts Zutreffendes gefunden wurde, in den KI-gesteuerten Prozess einzugreifen, wenn beim roten X entsprechende Aktionen eingefügt werden.

OpenAI Antwort (nur Messenger Nachrichten)

Mit dem Regelknoten „OpenAI Antwort (nur Messenger Nachrichten)“ hat man die Möglichkeit, einen Chat-Bot “zum Leben zu erwecken”.

Dieser Regelknoten ist nur anwendbar für Messenger-Nachrichten, wie der Name schon sagt. Die Konfiguration des Regelknotens ist denkbar einfach: Im oberen Feld wird das gewünschte Sprachmodell ausgewählt (mehr dazu hier) und im Freitext-Feld darunter wird die sogenannte Prompt, also die Anweisung eingeben, die ChatGPT mitgegeben wird. Hier sind Anweisungen an das System selbst (z. B. “Du bist ein hilfreicher, freundlicher und geduldiger Service Assistent, der Deutsch und Englisch spricht“), aber auch direkte Ausgaben möglich, die der Chat-Bot “sagen” soll (z. B. “Hi, ich bin Bo, der Chat-Bot von GREYHOUND. Wie kann ich Dir heute helfen?“).

Einmal eingerichtet, kann der ChatBot so mit Kunden via Messenger-Nachricht kommunizieren und dabei auf das sogenannte Weltwissen, das OpenAI gesammelt hat, zurückgreifen, sodass er sogar Wissensfragen wie “Was ist die Hauptstadt von Frankreich?” problemlos beantworten kann.

Im Praxiseinsatz ist es sinnvoll, den Chat-Bot um einen sogenannten Human Takeover zu erweitern, der immer dann Tragen kommt, wenn der Chat-Bot die Anfrage des Gegenübers einmal nicht verstanden hat. In dem Fall könnte der Bot das Angebot machen, das Anliegen an einen ‘echten’ Service-Mitarbeiter weiterzugeben und hierfür die E-Mail-Adresse und/oder Telefonnummer sowie das gewünschte Anliegen des Chat-Partners abfragen und die getätigten Eingaben dann per E-Mail an eine definierte Mail-Adresse, z. B. service@musterfirma, zu senden, sodass ein zu bearbeitendes Element offen im Kundenservice-Filter landet, das dann von Kundenservice-Mitarbeitern aus Fleisch und Blut bearbeitet werden kann.

OpenAI Antwort mit Kontext (nur Messenger Nachricht)

Mit dem Regelknoten “OpenAI Antwort mit Kontext (nur Messenger Nachricht)” ist eine Verknüpfung von bestehenden, benutzerdefinierten, kontextrelevanten Daten und dem OpenAI-Sprachmodell möglich. Er erlaubt es, kontextsensitiv über benutzerspezifische Themen intelligent zu “sprechen”.

Dieser Regelknoten ist, wie der Name schon sagt, nur im Chat, also bei Messenger-Nachrichten anwendbar und sorgt dafür, dass der Chat-Bot “sinnvolle” Gespräche führen kann, weil er in der Lage ist, den Gesprächskontext zu erhalten und somit Folgefragen stellen oder Bezug auf voran Geschriebenes zu nehmen kann.

Hinweis: Der Regelknoten ist konzipiert als Abfrage. Bedeutet, dass er zwei Ausgänge hat, wie man weiter verfahren möchte. So besteht die Möglichkeit, sofern nichts Zutreffendes gefunden wurde, in den KI-gesteuerten Prozess einzugreifen, wenn beim roten X entsprechende Aktionen eingefügt werden.

Embedding Klassifizierung für Themen, Kennzeichnung, Bearbeiter und Gruppen

Ab GREYHOUND 5.5.229 build 3636 stehen folgende Embedding Regelknoten zur Verfügung:

  • Embedding Themenklassifizierung
  • Embedding Kennzeichnungsklassifizierung
  • Embedding Bearbeiterklassifizierung
  • Embedding Gruppenklassifizierung

Diese Regelknoten durchsehen den gesamten GREYHOUND Bestand nach ähnlichen Elementen und weisen – wenn möglich – automatisch KI-gesteuert passende Themen, Kennzeichnungen, Bearbeiter und Gruppen zu. Dabei spielt die Sprache keine Rolle – ähnliche Elemente werden von OpenAI sprachübergreifend erkannt. Ob der Kunde “Wo ist mein Paket?”, “Where is my parcel?” oder “¿Dónde está mi paquete?” fragt, spielt also keine Rolle – es würde beispielweise immer das Thema “Zustellung” zugewiesen werden, sofern vorherigen Elementen dieses Thema zugewiesen bekommen haben.

Hinweis: Die im Standard ausgelieferte OpenAI Klassifizierungs-Regel kann mithilfe von Embeddings ebenfalls ähnliche Anfragen finden und dann deren Thema übernehmen. Sollte damit kein Thema gefunden werden, dann wird der Nachricht in einem zweiten Schritt mithilfe von OpenAI ein Thema zugeordnet.

Chat-Bot erstellen: Messenger-Regeln

Wenn das Automation-Pack und/oder das OpenAI-Addon gebucht sind, wird GREYHOUND mit einer Reihe von Regeln ausgeliefert, die als Grundlage dienen, einen eigenen Chat-Bot in GREYHOUND umzusetzen. Die Regeln können textlich und konzeptionell beliebig an die eigenen Bedürfnisse angepasst werden, sodass ein Chat-Bot entsteht, der die “Sprache des Unternehmens” spricht.

Sollten die Regeln nicht erscheinen, obwohl das Automation-Pack oder das OpenAI-Addon gebucht sind, können sie hier herunterladen werden.

Eine detaillierte Anleitung, wie der KI-Chatbot in GREYHOUND in Betrieb genommen wird, haben wir in einem separaten Artikel beschrieben:

KI-Chatbot einrichten

FAQ

Brauchen wir nun deutlich weniger oder sogar gar keine Service-Mitarbeiter mehr, wenn wir die KI in GREYHOUND nutzen?

Ganz klares: Nein! Die KI-Funktionen ersetzen keinen echten Menschenverstand, sondern erleichtern lediglich lästige Trivialaufgaben, die immer wieder anfallen und können bei der Formulierung helfen – der Einsatz spart also letztlich Zeit, der dafür genutzt werden kann, jedem Kunden die Zeit widmen zu können, die für herausragenden Service nötig ist. Wenn KI immer mehr Einzug in unseren Alltag hält, wird die Bedeutung der menschlichen Komponente als Gegenpart aller Voraussicht nach weiter steigen.

Wir raten dringendst davon ab, automatische Antworten auf das Gros der eingehenden Anfragen „blind“ anzuwenden. Ratsam ist eher, die KI-Auto-Antworten ganz deutlich einzugrenzen, z. B. auf ein bestimmtes Thema, das in GREYHOUND gesetzt ist, um die Antwortqualität zunächst zu prüfen und erste Tests vorzunehmen. Denn wir dürfen nicht vergessen: KI steckt noch in den Kinderschuhen und ist keinesfalls unfehlbar.

Die KI kann keine individuellen Antworten geben zum Sendungsstatus etc., sondern lediglich helfen in Bezug auf allgemeine Produktanfragen oder Ähnliches. Und auch hier gilt: Die KI hat vielleicht allgemeines Wissen über Faltzelte – welches die USP eines speziellen Produkts sind, dessen Hersteller vielleicht GREYHOUND einsetzt, das wird die KI niemals so wiedergeben können, wie es ein Mitarbeiter aus Fleisch und Blut kann, der tagtäglich mit den Produkten zu tun hat. Zudem gilt es zu bedenken, dass der Einfluss auf die verwendete Sprache der KI niedrig ist, d.h. die Einhaltung gewisser Sprachstandards und Normen zur Schreibweise

Welche Sprachmodelle unterstützt GREYHOUND?

Derzeit werden die folgenden GPT-Modelle von GREYHOUND unterstützt:

  • gpt-3.5-turbo
  • gpt-3.5-turbo-16k

Hier sind weitere Informationen zu den Sprachmodellen auf der Website von OpenAI zu finden.

Was ist der Importfilter?

Der Importfilter ist bei der Erstellung von eigenen Klassifikatoren relevant. Anstatt manuell Daten zum Anlernen der KI einzufügen, ist es auch möglich, einen Filter in GREYHOUND anzulegen bzw. einen bestehenden Filter zu nutzen, der genau die Datenmenge enthält, die man klassifizieren will. Um das zu tun, ist im Bereich “Importfilter” der entsprechende Filter auszuwählen und den Icon rechts zum Importieren zu klicken. Wenn das dazugehörige Datenfeld „Thema“ ausgewählt ist, dann werden nun alle Themen der Elemente aus dem Importfilter in den Klassifikator übernommen – jeweils im bekannten Schema “Klassifikator” getrennt vom Semikolon gefolgt von Beispieldaten.

Achtung: Es ist immer vorher zu prüfen, ob die Datenmenge „sauber“ ist. Ähnlich wie beim Spamfilter kann man durch eine Datenmenge, die Fehler enthält, die KI nämlich ansonsten auch falsch trainieren.

Der Screenshot zeigt ein Beispiel, bei dem anhand des benutzerdefinierten Feldes “Textsprache” im Filter “Kundenservice” gesucht wurde:

Kann ich die KI-Trainingsdaten komplett löschen?

Um die KI-Trainingsdaten komplett zu löschen ist es nötig, den GREYHOUND Server zu stoppen und dann auf dem Server den Ordner „AutoClassification“ komplett zu löschen. Dies ist nur möglich für Eigenbetriebler; Hosting-Kunden wenden sich bitte an unseren Kundenservice.

Kann ich Elemente vom KI-Training ausschließen?

Es ist möglich, einzelne Elemente manuell vom GREYHOUND integrierten KI-Training auszuschließen. Dazu ist ein Rechtsklick auf das jeweilige Element zu machen und „Bearbeiten“ zu wählen:

Hinweis: Dieser Ausschluss gilt nicht für OpenAI, sondern nur für die GREYHOUND-eigene KI.

Ein KI-Ausschluss mehrerer Elemente, z. B. aller Elemente mit dem Thema „Statusnachrichten“ per Regel, ist ebenfalls möglich. Dazu gibt es den Regelknoten „KI Ausschluss“:

Was sind OpenAI Embeddings?

Ab GREYHOUND 5.5.217 build 3591 verfügt die Automatisierung über eine Anbindung von OpenAI Embeddings, die im Gegensatz zu den bisherigen, nur auf lexikalischer Analyse basierenden Methoden nun auch einen Textvergleich auf semantischer also Bedeutungs-/Inhalts-Basis berechnen können. Damit lässt sich Wissen aus gesendeten Elementen, die in GREYHOUND stecken, an die künstliche Intelligenz geben zum Lernen. Gepaart mit dem natürlichen Sprachwissen von ChatGPT entstehen so Antwortvorschläge, die aus dem in GREYHOUND steckenden Wissen formuliert sind.

Die dazugehörige Standard-Regel heißt ” Workflow: OpenAI Embeddings erstellen” und kann hier heruntergeladen werden. Als Kriterium für das Erstellen eines Embeddings wird die Mitgliedschaft eines Bearbeiters in einer neuen Benutzergruppe namens “Zusatz: KI-Training” (muss gffs. manuell nachträglich ergänzt werden) geprüft. Nur wenn der Bearbeiter eines Elements Mitglied dieser Benutzergruppe ist, wird ein Embedding erstellt. Damit ist es möglich, das Erstellen von Embeddings auf Schlüsselpersonen zu fokussieren, deren Antwortqualität als besonders gut eingestuft wird. Weitere Kriterien können in der Regel individuell ergänzt werden.

Die dateibasierten Vektordatenbank befindet sich unterhalb der Server Verzeichnisses im Ordner EmbeddingIndex:

Der Index kann (entsprechende Profilrechte vorausgesetzt) über die Administrationsfunktionen zurückgesetzt werden:

Achtung: Jede Berechnung dauert einige Sekunden und kann den Queueserver erheblich ausbremsen – diese Funktion ist deshalb nur für größere Kunden mit mindestens 2 Queueserver-Threads zu empfehlen!

Welches ist das optimale Trainingsintervall, das ich für die KI im GREYHOUND Server einstellen sollte?

Im GREYHOUND Server lässt sich einstellen, ob und wie oft die künstliche Intelligenz „angetriggert“ werden soll, zu lernen. Standardmäßig lernt die GREYHOUND-interne KI alle 7 Tage neu. Wo man diese Konfiguration findet, ist je nach Betriebsart unterschiedlich, wie hier beschrieben.

Welcher Wert hier richtig ist, lässt sich nicht pauschal beantworten. Ähnlich wie beim Lernen für eine Abschlussprüfung kann es einen Punkt geben, an dem der Schüler einfach genug gelernt hat – das Ergebnis wird nicht besser, wenn er noch mehr lernt. Ebenso wäre es ziemlich schmerzhaft, die Erkenntnis, dass die Herdplatte heiß ist, jeden Tag neu erlangen zu wollen – von Intelligenz könnte man da wohl nicht sprechen 😉

So ähnlich ist es auch mit der KI: Möglichst oft und viel zu lernen führt nicht unbedingt zu den die besten Ergebnissen, auch wenn man das vielleicht zunächst annehmen würde Zumal der Wissensstand sich ja womöglich gar nicht erheblich geändert hat und ein erneutes Anlernen somit unnötig Ressourcen verbrauchen würde. Zu selten führt definitiv irgendwann dazu, dass das Wissen veraltet. Auch uns fehlen an der Stelle Langzeiterfahrungen, dafür ist die KI-Technologie schlichtweg noch zu jung – einmal die Woche ist also ein Standardwert, den es zu beobachten gilt. Wer mag, kann gerne mit diesem Wert „herumspielen“ und uns an den Erfahrungen teilhaben lassen.

Soll (vorerst) überhaupt kein erneutes Training stattfinden, kann man den Haken bei “Zeitgesteuertes Training aktivieren” einfach entfernen. Über den Wert “Elementalter für Training” lässt sich bei Bedarf zudem steuern, wie alt ein Element sein in Tagen sein muss, damit es vom Training berücksichtigt wird.

Diese Informationen beziehen sich ausschließlich auf die GREYHOUND-eigene KI – was OpenAI hinsichtlich der Daten und des Trainings macht, liegt außerhalb unseres Einfluss- und Kenntnisbereichs.

Was bedeutet Wortzerlegung im Zusammenhang mit Klassifikatoren?

Im Zusammenhang mit KI, konkret bei der Erstellung von Klassifikatoren, bezieht sich Wortzerlegung auf die Fähigkeit eines Computers, ein geschriebenes oder gesprochenes Wort in seine Bestandteile (z. B. Buchstaben oder Silben) zu zerlegen, um seine Bedeutung besser zu verstehen. Diese Fähigkeit wird als Teil der NLP (Natural Language Processing) Technologie eingesetzt, um Texte oder Sprache zu analysieren und zu interpretieren.

Die Wortzerlegung wird oft auch als “Tokenisierung” bezeichnet und ist ein wichtiger Schritt in der Verarbeitung von Sprachdaten durch KI-Systeme. Sie hilft dabei, die Bedeutung von Texten oder Sprache zu verstehen und sie in eine Form zu bringen, die von der KI weiterverarbeitet werden kann. Dies ist insbesondere bei der Textanalyse oder der automatischen Übersetzung von Sprache von Bedeutung.

Welcher Wert hier der Richtige ist, würde an dieser Stelle den Rahmen sprengen. Unser Tipp: Probieren geht über Studieren 😉

Hat das Trainingsintervall, das im GREYHOUND Server eingestellt wird, Auswirkungen auf das Training von Klassifikatoren?

Beide Dinge – Trainingsintervall im GREYHOUND Server und das Trainieren des Klassifikators – sind zwei völlig unterschiedliche Mechanismen. Die Klassifikatoren werden ausschließlich manuell trainiert.

Was bedeutet Feature-Hashing?

Mittels Feature-Hashing lässt sich Wissen aus gesendeten Elementen, die in GREYHOUND stecken, an die künstliche Intelligenz geben zum Lernen. Gepaart mit dem natürlichen Sprachwissen von ChatGPT entstehen so Antwortvorschläge, die aus dem in GREYHOUND steckenden Wissen formuliert sind.

Das Feature-Hashing lässt sich unter Einstellungen > Text-Klassifikatoren für einen Klassifikator anhaken, der das Modell “Vektor Ähnlichkeitssuche” oder “Vektor Klassifikator”:

auch spannend: Was sind OpenAI-Embeddings?

Kann ich die OpenAI-Funktionen auch in der Skriptsprache nutzen?

Ab GREYHOUND Version 5.5.229 build 3636 stehen in PascalScript auf LowLevel-Ebene sämtliche in GREYHOUND verfügbare OpenAI-Funktionen zur Verfügung:

S.AddTypeS('TFbmOpenAIVector', 'array of Single');

S.AddTypeS('TFbmOpenAIVectors', 'array of TFbmOpenAIVector');
S.AddDelphiFunction('function FbmOpenAIGenerateCompletion(const Model, Prompt: string; const Temperature, FrequencyPenalty, PresencePenalty: Double; MaxTokens: Integer; Echo: Boolean; const Stop: array of string): string;');
S.AddDelphiFunction('function FbmOpenAIGenerateChatCompletion(const Model: string; const Messages: TStringList; const Temperature, FrequencyPenalty, PresencePenalty: Double; MaxTokens: Integer): string;');
S.AddDelphiFunction('function FbmOpenAIGetEmbeddings(const Model: string; const Input: string): TFbmOpenAIVector;');
S.AddDelphiFunction('function FbmOpenAIGetEmbeddingsEx(const Model: string; const Inputs: TStringList): TFbmOpenAIVectors;');
S.AddDelphiFunction('function FbmOpenAIGetMaxTokensFromModel(const Model: string): Integer;');
S.AddDelphiFunction('function FbmOpenAITrimInputForModel(const Model, Input: string; MaxAnswerTokens: Integer): string;');