No items found.

Glossar

Conversational Commerce

Taking the form of human-to-human communication or human-software dialogue, conversational commerce is the interaction between customers and companies in real time with the help of technical means such as messaging services (WhatsApp, Facebook Messenger, etc.), digital voice assistants, or chatbots. The aim of this interaction is to simplify and accelerate the customer's contact with a company in order to allow them to find out about certain products or services, use customer service, or buy a product. Through direct customer contact, conversational commerce enables companies to respond to the individual wishes or preferences of their customers, to understand customer needs better, and to win new custom in the long term.

Data Mining

Data Mining ist eine interdisziplinäre Aktivität, die Informationen und Wissen aus den Bereichen Informatik, Mathematik und Statistik für die computergestützte Analyse von Datenbanken nutzt. Methoden der künstlichen Intelligenz werden beim Data-Mining eingesetzt, um große Datenmengen auf neue Querverbindungen, Trends oder Muster hin zu untersuchen. Der Begriff „Data Mining“ wird oft synonym mit „Wissensentdeckung in Datenbanken“ verwendet, doch eigentlich handelt es sich dabei nur um einen Teilbereich der Wissensentdeckung in Datenbanken. Data Mining extrahiert automatisch Korrelationen und stellt sie für übergeordnete Ziele zur Verfügung. Erkannte Muster können helfen, die Entscheidungsfindung bei bestimmten Problemen zu erleichtern.

Predictive Maintenance

Predictive Maintenance bezeichnet einen Wartungsprozess, der auf der Auswertung von Prozess- und Maschinendaten basiert und vor allem im sprachlichen Kontext von Industrie 4.0 zu finden ist. Diese Echtzeitverarbeitung der zugrundeliegenden Daten ermöglicht Prognosen, die die Grundlage für eine bedarfsgerechte Wartung und damit die Reduzierung von Ausfallzeiten bilden. Neben der Interpretation der Sensordaten erfordert die vorausschauende Wartung eine Kombination aus Echtzeit-Analysetechnologie und einer In-Memory-Datenbank, um im Vergleich zu Festplattenlaufwerken eine höhere Zugriffsgeschwindigkeit auf die Daten zu erreichen. Im Erfolgsfall wird es in Zukunft möglich sein, auf der Produktionsseite einen Techniker einzusetzen, der ein Problem behebt, bevor es auftritt.

Maschinelles Lernen (ML)

Maschinelles Lernen ist ein Teilgebiet der künstlichen Intelligenz, das Muster und Gesetzmäßigkeiten erkennt und anschließend geeignete Lösungen ableitet. Die Grundlage von ML bilden bestehende Datenbanken, die zur Erkennung von Mustern benötigt werden. Die Technologie generiert dann künstliches Wissen auf der Grundlage bereits gesammelter Erfahrungen; dieses Wissen kann dann verallgemeinert und zur Lösung zukünftiger Probleme verwendet werden. Dank dieses Ansatzes können auch unbekannte Daten schnell verarbeitet und genutzt werden.

Data Science

Data Science ist eine Methode, um Erkenntnisse aus strukturierten und unstrukturierten Daten zu gewinnen. In der Datenwissenschaft werden verschiedene Ansätze verwendet, von der statistischen Analyse bis hin zum maschinellen Lernen. Die meisten Unternehmen nutzen Datenwissenschaft, um Daten in Mehrwert umzuwandeln, und zwar durch:

- Umsatzsteigerungen

- Kostensenkungen

- Geschäftliche Agilität

- Optimierte Kundenerlebnisse oder neu entwickelte Produkte

Die Datenwissenschaft gibt den Daten, die von einer Organisation gesammelt werden, einen Zweck.

Supervised Learning

Beim überwachten maschinellen Lernen stellen Entwickler Algorithmen einen vorbereiteten Datensatz als Trainingsquelle zur Verfügung, wobei das Ergebnis bereits bekannt ist. Die Algorithmen haben die Aufgabe, das Muster zu erkennen: Warum gehören diese Informationen in die Kategorie A und nicht in die Kategorie B?

Überwachtes Lernen ist eine Technik, mit der Algorithmen vermittelt werden, die zur Kategorisierung natürlicher Daten wie Fotos, Handschrift und Sprache verwendet werden.

Teilüberwachtes Lernen ist eine Hybridform. Bei dieser Lernmethode wird nur ein Teil des Datensatzes beschriftet. Der Rest bleibt unkategorisiert, mit dem Ziel, dass diese unabhängig von den Algorithmen zugewiesen werden. Ein Beispiel dafür findet sich in der Gesichtserkennung von Facebook. Es reicht aus, ein paar Bilder mit den Namen von Freunden zu beschriften, bevor der Algorithmus die restlichen Gesichter von alleine findet.

Unsupervised Learning

Unsupervised Learning ist eine Methode zur Datenanalyse im Bereich der künstlichen Intelligenz. Dabei orientiert sich ein künstliches neuronales Netzwerk an Ähnlichkeiten innerhalb verschiedener Eingabewerte. Beim unbeaufsichtigten Lernen versucht der Computer selbstständig, Muster oder Strukturen innerhalb der Eingabewerte zu erkennen.

Reinforcement Learning

Reinforcement Learning ist eine Option für maschinelles Lernen, für die keine Daten zur Konditionierung benötigt werden. Die Daten werden während des Trainings in einem Trial-and-Error-Prozess generiert und gleichzeitig beschriftet. Das Programm durchläuft mehrere Trainingsläufe in einer Simulationsumgebung, um ein angemessen genaues Ergebnis zu liefern. Das angestrebte Ergebnis dieses Trainings ist, dass die künstliche Intelligenz in der Lage ist, sehr komplexe Steuerungsprobleme ohne menschliches Vorwissen selbstständig zu lösen. Im Vergleich zur konventionellen Technik ist Reinforcement Learning schneller, effizienter und liefert, wenn es erfolgreich ist, die bestmöglichen aller erwarteten Ergebnisse.

Deep Learning (DL)

Deep Learning ist eine Unterkategorie des maschinellen Lernens, die Datenmuster als komplexe, vielschichtige Netzwerke modelliert. Diese Art des Lernens hat das Potenzial, komplexe Probleme zu lösen, für die weder traditionelle Programmierung noch andere Techniken des maschinellen Lernens geeignet sind. Es ist auch in der Lage, genauere Modelle als andere Methoden zu erstellen und kann schneller implementiert werden. Trotz dieser Vorteile erfordert das Training von Deep-Learning-Modellen eine enorme Rechenleistung, und die Interpretation der Modelle ist eine schwierige Aufgabe.

Das Hauptmerkmal von Deep Learning besteht darin, dass die trainierten Modelle mehr als eine versteckte Ebene zwischen Eingabe und Ausgabe aufweisen. In den meisten Fällen handelt es sich dabei um künstliche neuronale Netze.

Inferenz

Inferenz bedeutet, Wissen in Form von Schlussfolgerungen zu verarbeiten. Schlussfolgerungen werden unabhängig von den Erfahrungen gezogen, die ein KI-Algorithmus während des Trainings gesammelt oder gelernt hat, während neues Wissen oder neue Regeln durch Inferenz aus einer bestimmten Datenbank gewonnen werden können.

Es wird auch zwischen induktiven (vorwärts) und deduktiven (rückwärts) Inferenzen unterschieden; zwei Begriffe, die im Bereich der Logik häufig verwendet werden.

Decision Intelligence

Decision Intelligence ist ein Überbegriff für eine Vielzahl von Entscheidungstechniken, die mehrere traditionelle und fortgeschrittene Disziplinen zusammenbringen, um Entscheidungsmodelle und -prozesse zu entwerfen, zu modellieren, auszurichten, auszuführen, zu überwachen oder zu optimieren. Zu diesen Disziplinen gehören Entscheidungsmanagement (einschließlich fortgeschrittener nichtdeterministischer Techniken wie agentengestützter Systeme) und Entscheidungsunterstützung sowie Aktivitäten wie deskriptive, diagnostische und prädiktive Analytik.

Spracherkennung

Spracherkennung bezieht sich auf Programme, die menschliche Sprache über ein Mikrofon und eine Soundkarte analysieren, bevor das Ergebnis mit einer internen Datenbank verglichen wird, um einzelne Wörter zu unterscheiden. Um optimale Ergebnisse zu erzielen, ist die Spracherkennungssoftware darauf trainiert, die Stimme jedes einzelnen Sprechers zu erkennen. Unbekannte Begriffe können dem Benutzerwörterbuch hinzugefügt werden. Spracherkennungsprogramme können für die Sprachsteuerung von Computern oder für Geräte oder Stimmen verwendet werden, die zur Texteingabe in Textverarbeitungsprogramme verwendet werden.

Natural Language Processing (NLP) (NLP)

Natural Language Processing (NLP) ist ein Zweig der Informatik oder genauer gesagt ein Zweig der künstlichen Intelligenz, der sich darauf bezieht, Computern beizubringen, Texte und gesprochene Wörter so zu verstehen, wie Menschen es tun.

NLP kombiniert Computerlinguistik — die regelbasierte Modellierung der menschlichen Sprache — mit statistischer Modellierung, maschinellem Lernen und Deep Learning. Zusammen ermöglichen diese Technologien Computern, menschliche Sprache in Form von Text- oder Sprachdaten zu verarbeiten und ihre volle Bedeutung zu „verstehen“, einschließlich der Absicht und Stimmung des Sprechers oder Autors.

Algorithmen

Algorithmen sind Regeln zur Lösung einer Klasse von Problemen, wobei jeder Algorithmus aus einer endlichen Reihe von Schritten besteht, die es ermöglichen, neue Ausgabedaten explizit aus bekannten Eingabedaten zu berechnen. Ein Algorithmus hat fünf Eigenschaften:

- Deterministisch: Bei mehreren Wiederholungen derselben Eingabewerte und derselben Einschränkungen liefert der Algorithmus immer das gleiche Ergebnis.

- Richtigkeit: Das Ergebnis eines Algorithmus muss immer zu einem korrekten Ergebnis führen.

- Endlichkeit: Algorithmen erledigen eine Aufgabe in einer endlichen Anzahl von Schritten.

- Einzigartigkeit: Die Reihenfolge der Schritte in einem Algorithmus ist immer dieselbe und führt immer zu einem eindeutigen Ergebnis.

- Allgemeinheit: Ein Algorithmus soll eine Klasse von Problemen lösen und muss in der Lage sein, alle für diese Problemklasse relevanten Situationen zu lösen.

Künstliche Intelligenz

Künstliche Intelligenz (KI) ist der Oberbegriff für Anwendungen, in denen Maschinen menschenähnliche Intelligenz demonstrieren, beispielsweise indem sie lernen, Urteile fällen oder Probleme lösen. Die Technologie des maschinellen Lernens, eine Untergruppe der künstlichen Intelligenz, bringt Computern bei, aus Daten und Erfahrungen zu lernen und Aufgaben im Laufe der Zeit besser auszuführen. Hochentwickelte Algorithmen können Muster in unstrukturierten Datensätzen wie Bildern, Texten oder gesprochenen Sprachen erkennen und unabhängig davon Entscheidungen treffen.

Diese Art des Lernens wird unter anderem durch Natural Language Processing (NLP) ermöglicht. Ein Beispiel für NLP wäre, wenn Texte und natürliche menschliche Sprache im Alexa-Sprachdienst von Amazon verarbeitet und verwendet werden. Deep Learning (DL), das sehr tiefe neuronale Netze mit mehreren Schichten und großen Datenmengen verwendet, gilt derzeit als die vielversprechendste Methode des maschinellen Lernens.

Chatbot

Ein Chatbot ist ein Dialogsystem mit natürlichen Sprachkenntnissen textueller oder auditiver Natur. Chatbots werden auf Websites oder in Instant-Messaging-Systemen eingesetzt, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und für die Anliegen von Interessenten und Kunden werben oder sich um sie kümmern, oft in Kombination mit statischen oder animierten Avataren. In einigen Fällen dienen sie einfach der Unterhaltung und Reflexion. Soziale Bots tauchen in sozialen Medien auf und können als Chatbots fungieren. Manchmal wird der Begriff Chatbot so weit verwendet, dass er auch Sprachassistenten und Voice-Bots umfasst.

Computer Vision

Computer Vision ist ein Bereich der künstlichen Intelligenz (KI), der es Computern und Systemen ermöglicht, aussagekräftige Informationen aus digitalen Bildern, Videos und anderen visuellen Eingaben zu extrahieren und auf der Grundlage dieser Informationen Maßnahmen zu ergreifen oder Empfehlungen abzugeben. Wenn KI Computern das Denken ermöglicht, dann ermöglicht ihnen das maschinelle Sehen, Beobachten und Verstehen.

Computervision funktioniert ähnlich wie menschliches Sehen, aber Menschen hatten einen Vorsprung. Das menschliche Sehen wurde im Laufe von Jahrtausenden darauf trainiert, zwischen Objekten zu unterscheiden, Entfernungen einzuschätzen, Bewegungen zu erkennen und Unregelmäßigkeiten in einem Bild zu erkennen.

Computer Vision trainiert Maschinen in diesen Fähigkeiten, indem sie Kameras, Daten und Algorithmen anstelle von Netzhaut, Sehnerven und einem visuellen Kortex verwendet.

Artificial General Intelligence

Artificial General Intelligence (AGI) ist die Darstellung generalisierter menschlicher kognitiver Fähigkeiten in Software, die es einem AGI-System ermöglicht, eine Lösung für eine unbekannte Aufgabe zu finden. Das Ziel eines AGI-Systems ist es, jede Aufgabe auszuführen, zu der ein Mensch fähig ist.

Die Definitionen von AGI variieren aufgrund der Vielzahl von Expertenperspektiven, die die menschliche Intelligenz definieren. Informatiker definieren menschliche Intelligenz häufig als die Fähigkeit, Ziele zu erreichen, wohingegen Psychologen allgemeine Intelligenz typischerweise als Anpassungsfähigkeit oder Überlebensfähigkeit definieren.

AGI wird als starke künstliche Intelligenz (KI) bezeichnet. Starke KI steht im Gegensatz zu schwacher oder eingeschränkter KI. Dabei handelt es sich um die Anwendung künstlicher Intelligenz, um bestimmte Aufgaben zu erledigen oder identifizierte Probleme zu lösen.

Cloud Computing

Cloud Computing ist die Bereitstellung von IT-Ressourcen über das Internet. Benutzer können unabhängig von ihrem Gerät auf Cloud Computing zugreifen und den Dienst entsprechend ihrem Verbrauch bezahlen. Typische IT-Ressourcen, die als Cloud Computing angeboten werden, sind Server, Workstations, Speicherplatz, Software, Datenbanken und KI-Algorithmen.

Big Data

Big Data bezeichnet große Datenmengen, die mit speziellen Lösungen gespeichert, verarbeitet und ausgewertet werden. Es geht unter anderem um Netzsuche, (Inter-) Abhängigkeitsanalysen, Umwelt- und Trendforschung sowie System- und Produktionssteuerung.

Das „Big-Data-Konzept“ wird anhand der vier Vs beschrieben:

- Volumen: Dies beschreibt die große Datenmenge. Immer größere Datenmengen müssen gespeichert und verarbeitet werden.

- Vielfalt: Dies bezieht sich auf die Vielzahl verschiedener Dateistrukturen, z. B. strukturiert, halbstrukturiert und unstrukturiert. Ein großer Teil der gespeicherten Daten liegt in unstrukturierten Formaten wie Texten, Bildern oder Videos vor. Big Data macht diese Daten durch maschinelles Lernen analysierbar.

- Geschwindigkeit: Dies beschreibt die erhöhte Geschwindigkeit, mit der Daten generiert und gleichzeitig verarbeitet werden müssen.

- Wahrhaftigkeit: Dies bezieht sich auf die Unsicherheit (Wahrhaftigkeit) von Daten und Datenqualität. Daten aus unterschiedlichen Quellen kommen manchmal nicht in der gewünschten Qualität an und können daher nicht wie vorgesehen verwendet werden oder müssen mit großem Aufwand verarbeitet werden.

Blog

Neueste Einblicke in die Welt der KI