Künstliche Intelligenz (KI)

Was ist Künstliche Intelligenz?

Künstliche Intelligenz (KI) bezeichnet Computersysteme, die menschliche Fähigkeiten wie Lernen, Problemlösen und Sprachverständnis nachahmen.

Im Kern ist KI der Versuch, Maschinen zu entwickeln, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern. Diese Systeme können aus großen Datenmengen lernen, Muster erkennen, Probleme lösen und Entscheidungen treffen.

In der der Informatik konzentriert sich die wissenschaftliche Disziplin auf die Erforschung von Algorithmen, Datenstrukturen und Berechnungsmethoden, die es Computern ermöglichen, intelligentes Verhalten zu simulieren. Sie verbindet dabei Erkenntnisse aus verschiedenen Fachbereichen wie Mathematik, Logik, Linguistik, Neurowissenschaften und Psychologie.

Die moderne KI-Forschung unterscheidet zwei Richtungen:
– Die Symbolische KI, sie basiert auf logischen Regeln und symbolischer Wissensrepräsentation, und
– Die Subsymbolische KI, welche statistische Modelle und neuronale Netze zum maschinellen Lernen nutzt.

Im Informatikkontext stellt KI eine Erweiterung der traditionellen Algorithmen dar, indem sie nicht nur deterministische, sondern auch probabilistische und adaptive Problemlösungen ermöglicht. Anders als klassische Programme, die genau das tun, was ihnen explizit vorgegeben wurde, können KI-Systeme aus Daten lernen und ihre Leistung im Laufe der Zeit verbessern, ohne dass jeder Schritt explizit programmiert werden muss.

Untrainierte vs. vortrainierte KI-Systeme

Untrainierte KI-Systeme erfordern oft tausende GPU-Stunden für ein vollständiges Training, während vortrainierte Modelle mit einem Bruchteil davon feinabgestimmt werden können. Der Datenbedarf für beispielsweise ein untrainiertes Bilderkennungsmodell benötigt möglicherweise Millionen von Bildern, während ein vortrainiertes Modell mit wenigen hundert aufgabenspezifischen Beispielen angepasst werden kann. In der modernen KI-Entwicklung werden zunehmend vortrainierte Modelle bevorzugt, mit großen Foundation Models wie BERT, GPT oder CLIP als Grundlage für spezialisierte Anwendungen. Ein Grund dafür sind wirtschaftliche Faktoren. Die Vortrainingsphase ist auch der kostenintensivste Teil der KI-Entwicklung, was kleineren Akteuren den Zugang erschwert und zu einer Konzentration bei großen Technologieunternehmen führt.


Untrainierte KI

Untrainierte KI-Systeme werden zur Gänze von Grund auf trainiert und oft für spezialisierte Aufgaben ohne verfügbare vortrainierte Modelle, in Szenarien mit einzigartigen Datentypen oder -strukturen, für Forschungsprojekte zur Entwicklung neuer Architekturen und für Anwendungen mit sehr spezifischen Datenschutz- oder Sicherheitsanforderungen verwendet. Sie bieten die vollständige Kontrolle über den Lernprozess und sind oft für eine einzelne spezifische Anwendung maßgeschneidert.

Vor dem Einsatz sollte man bedenken, dass untrainierte KI-Systeme deutlich mehr Aufwand und Resourcen und bei begrenzten Trainingsdaten das Risiko schlechterer Resultate bedeuten können.


Vortrainierte KI

Vortrainierte KI-Systeme stehen ohne Vorlauf für den produktiven Einsatz zur Verfügung, haben große Datenmengen und bereits etablierte Architekturen und Parameter als Basis und sind normalerweise von Beginn an deutlich preiswerter.

Das bereits erfolgte Training birgt allerdings auch Nachteile. Neben Anderem sind das weniger Kontrolle, Abhängigkeit von der Qualität des Vortrainings, weniger Anpassungsfähigkeit bei stark abweichenden Aufgaben.

Schwache KI gegenüber theoretischer Starker KI

Der zentrale Unterschied zwischen Schwacher KI und Starker KI ist, dass schwache KI auf spezifische Anwendungen beschränkt ist und kein eigenständiges Verständnis besitzt, während starke KI – sollte sie jemals entwickelt werden – eine umfassende, menschenähnliche Intelligenz mit Bewusstsein und Verständnisfähigkeit besäße.


Schwache KI

Narrow KI oder ANI (Artificial Narrow Intelligence, auf Deutsch schwache KI) stellt die aktuell dominierende Form künstlicher Intelligenz dar. Im Gegensatz zu hypothetischen allgemeinen KI-Systemen (AGI) ist Narrow KI auf spezifische Aufgaben oder Anwendungsbereiche spezialisiert.

Das fundamentale Merkmal von Narrow KI ist ihre Spezialisierung. Diese Systeme werden entwickelt und trainiert, um in einem klar definierten Bereich Leistungen zu erbringen. Sie können innerhalb ihres Einsatzbereichs Menschen übertreffen, sind jedoch unfähig, ihr Wissen oder ihre Fähigkeiten auf andere Bereiche zu übertragen.

  • ist auf spezifische Aufgaben oder Problemstellungen spezialisiert,
  • simuliert intelligentes Verhalten in einem eng begrenzten Bereich,
  • besitzt kein eigenes Bewusstsein oder Selbstverständnis, und
  • funktioniert nach vorgegebenen Mustern und Algorithmen.

Starke KI

General AI oder AGI (Artificial General Intelligence) sind hypothetische KI-Systeme mit menschenähnlicher kognitiver Leistungsfähigkeit, geeignet für über ein breites Spektrum von Aufgaben. AGI existiert bisher nur als theoretisches Konzept.

  • . kann beliebige intellektuelle Aufgaben lösen, nicht nur spezialisierte,
  • . besäße die Fähigkeit zu abstraktem Denken, Kreativität und Selbstreflexion,
  • . würde möglicherweise ein eigenes Bewusstsein oder eine Form von Selbstwahrnehmung entwickeln, und
  • ist derzeit nur theoretisches Konzept, AGI existiert noch nicht als reale Technologie.

Die grundlegenden KI-Funktionskonzepte

– Maschinelles Lernen

Maschinelles Lernen bildet das Fundament moderner KI-Systeme. Anders als bei konventioneller Programmierung, bei der explizite Regeln vorgegeben werden, können diese Systeme aus Daten lernen und Muster erkennen.

– überwachtes Lernen

Das System wird mit gekennzeichneten Beispielen (Input-Output-Paaren) trainiert. Es lernt, die Beziehung zwischen Eingaben und gewünschten Ausgaben zu modellieren. Beispiele sind Klassifikation (E-Mails als Spam oder kein Spam einstufen) und Regression (Vorhersage kontinuierlicher Werte wie Immobilienpreise).

– Unüberwachtes Lernen

Das System entdeckt eigenständig Muster in unmarkierten Daten. Typische Methoden sind Clustering (Gruppierung ähnlicher Datenpunkte) und Dimensionsreduktion (Vereinfachung komplexer Datenstrukturen).

– Verstärkendes Lernen

Das System erlernt optimale Handlungsstrategien durch Interaktion mit einer Umgebung. Es erhält Belohnungen oder Bestrafungen für seine Aktionen und optimiert sein Verhalten, um langfristige Belohnungen zu maximieren.

– Neuronale Netze

Neuronale Netze sind vom menschlichen Gehirn inspirierte, trainierbare Berechnungsmodelle. Sie bestehen aus verbundenen Schichten künstlicher Neuronen: die Eingabeschicht nimmt Daten auf, vielfache, von außen nicht sichtbare Schichten verarbeiten die über die Eingabeschicht gewonnene Information. Die in die Schichten verbundenen Neuronen erhalten gewichtete Eingaben, addiert diese, wenden eine Aktivierungsfunktion an und geben das Ergebnis weiter. Die Ausgabeschicht schließlich liefert das vom Nutzer angefragte oder in einem Prozess definierte Ergebnis.

– Deep Learning

Deep Learning ist ein Teilbereich des maschinellen Lernens, der auf besonders tiefen neuronalen Netzen basiert:

– Deep Architecture

Viele versteckte Schichten ermöglichen hierarchische Merkmalsextraktion

– Automatische Merkmalsextraktion

Im Gegensatz zu traditionellem maschinellen Lernen werden Merkmale nicht manuell definiert, sondern vom Netzwerk selbst gelernt

– Zielgerichtete Architekturen

  • Convolutional Neural Networks (CNNs): Bilderkennung durch lokale Filteroperationen
  • Recurrent Neural Networks (RNNs): verarbeiten sequentielle Daten mit Gedächtnismechanismen
  • Transformer: Architektur für Sprachverarbeitung mit Aufmerksamkeitsmechanismen
  • Generative Adversarial Networks (GANs): erzeugen realistische synthetische Daten durch konkurrierende Netzwerke

Die Datenbasis ist die Grundlage der KI-Systeme

Bedeutung der Datenbasis

  • Lerngrundlage: Moderne KI-Systeme, insbesondere solche, die auf maschinellem Lernen basieren, können nur das „wissen“, was in ihren Trainingsdaten enthalten ist. Sie lernen, indem sie Muster und Zusammenhänge in diesen Daten erkennen.
  • Qualität bestimmt Leistung: Nach dem Prinzip „Garbage In, Garbage Out“ bestimmt die Qualität der Trainingsdaten direkt die Qualität der KI-Leistung. Selbst die fortschrittlichsten Algorithmen können aus schlechten oder unzureichenden Daten keine guten Ergebnisse erzeugen.
  • Generalisierungsfähigkeit: Die Vielfalt und Repräsentativität der Daten bestimmt, wie gut ein KI-System auf neue, ungesehene Fälle generalisieren kann. Eingeschränkte Datensätze führen zu KI-Systemen mit eingeschränktem Anwendungsbereich.

Konzeption von KI-Datenbasen

Für das Erkennen und Nutzen komplexer Muster müssen KI-Daten in ausreichend großer Menge und in der zum Verwendungszweck passenden Genauigkeit und Aktualität vorliegen. Sie müssen vielfältiger, unterschiedlicher Szenarien und Randfeldsituationen abdecken und zur Vermeidung von Verzerrungen durch ungleiche Verteilung ausreichend ausgewogen sein.

Herausforderungen bei der Erstellung der KI-Datenbasis

Der Aufbau der Datenbasis eines KI-Systems ist nicht nur ein technischer Aspekt, sondern hat weitreichende ethische, rechtliche und gesellschaftliche Implikationen wie beispielsweise

  • Datenschutz und Ethik: Balanceakt zwischen Datennutzung und Privatsphäre
  • Bias: Ungleichgewichte in den Daten führen zu ungerechten Systemen
  • Datenknappheit: In spezialisierten Domänen oft zu wenig verfügbare Daten Datenqualitätssicherung: Aufwändige Prozesse zur Sicherstellung hochwertiger Daten
  • Datenqualitätssicherung: Aufwändige Prozesse zur Sicherstellung hochwertiger Daten

Kurzer historischer Abriss der KI-Entwicklung

1940 – 1960

Warren McCulloch und Walter Pitts entwickeln das erste mathematische Modell eines künstlichen Neurons, Alan Turing veröffentlicht seinen berühmten Aufsatz „Computing Machinery and Intelligence“ mit dem Turing-Test, und der Begriff „Künstliche Intelligenz“ wird auf der Dartmouth Conference von John McCarthy geprägt.

Erste Erfolge mit Problemlösungsprogrammen wie Logic Theorist und General Problem Solver, erste frühe Programmiersprachen für KI wie, z.B., LISP werden entwickelt.

1960 – 1970

1970 – 1980

Ernüchterung nach übertriebenen Erwartungen an KI, Erkenntnis der Komplexität natürlicher Sprache und Wissensrepräsentation, Kürzung von Forschungsgeldern aufgrund ausbleibender praktischer Erfolge.

Aufstieg regelbasierter Systeme für spezifische Fachgebiete, Kommerzieller Erfolg dieser Systeme in Wirtschaft und Medizin, Japan startet „Fifth Generation Computer“-Projekt.

1980 – 1990

1990 – 2000

Erneute Ernüchterung bei regelbasierten Systemen, Durchbruch bei maschinellem Lernen und statistischen Ansätzen, Deep Blue besiegt Schachweltmeister Kasparov.

Verfügbarkeit großer Datenmengen, Fortschritte bei Rechenleistung und Algorithmen, Praktische Anwendungen in Bilderkennung, Sprachverarbeitung.

2000 – 2010

2010 – 2020

AlexNet revolutioniert Bilderkennung mit tiefem neuronalen Netz, AlphaGo besiegt Go-Weltmeister Lee Sedol, Entwicklung transformationsbasierter Modelle wie BERT und GPT.

Durchbruch bei generativen KI-Modellen (DALL-E, Stable Diffusion), Massentaugliche Sprachmodelle wie ChatGPT/GPT-4 und multimodale Modelle, die Text, Bild und andere Modalitäten kombinieren, werden entwickelt, und ethische und regulatorische Fragen werden zunehmend diskutiert.

seit 2020

Aktuelle KI-Technologien

  • Große Sprachmodelle (LLMs) – Fortschrittliche KI-Systeme wie GPT-4, Claude oder LLaMA, die menschenähnlichen Text verstehen und generieren können
  • Computer Vision – Systeme zur Bilderkennung, Objektidentifikation und visuellen Analyse in Echtzeit
  • Generative Adversarial Networks (GANs) – Erzeugen realistische Bilder, Videos und andere Medien durch konkurrierende Netzwerke
  • Multimodale KI – Verarbeitet und verbindet verschiedene Eingabeformen wie Text, Bild, Audio und Video
  • Reinforcement Learning from Human Feedback (RLHF) – Trainingsmethode, bei der KI-Modelle durch menschliches Feedback verbessert werden
  • Text-to-Image-Generierung – Erstellt Bilder aus Textbeschreibungen (z.B. DALL-E, Midjourney, Stable Diffusion)
  • Text-to-Video-Generierung – Erzeugt Videosequenzen aus Textbeschreibungen (z.B. Sora, Runway)
  • Neurosymbolische KI – Verbindet neuronale Netze mit symbolischer Logik für besseres Schlussfolgern
  • Federated Learning – Verteiltes Lernen auf Endgeräten ohne zentrale Datenspeicherung zum Schutz der Privatsphäre
  • Konversations-KI – Systeme für natürliche Dialoge mit Menschen in Kundenservice und persönlichen Assistenten
  • Selbstfahrende Fahrzeuge – Autonome Fahrsysteme mit Sensorfusion und KI-basierter Entscheidungsfindung
  • Kontinuierliches Lernen – Fähigkeit von KI-Systemen, ständig neue Informationen zu lernen ohne früheres Wissen zu vergessen
  • Low-Code/No-Code KI-Plattformen – Ermöglichen KI-Anwendungsentwicklung ohne tiefe Programmierkenntnisse
  • KI für Gesundheitsdiagnostik – Spezialisierte Bildanalyse für medizinische Bilder wie MRT, CT oder Röntgenaufnahmen
  • Empfehlungssysteme – Personalisierte Vorschläge für Produkte, Inhalte oder Dienstleistungen basierend auf Nutzerverhalten
  • KI-gestützte Robotik – Integration von KI in physische Robotersysteme für komplexe Interaktionen
  • Quantenmaschinelles Lernen – Kombination von Quantencomputing mit KI-Algorithmen für erhöhte Rechenleistung
  • Neuromorphic Computing – Hardware, die die Struktur des menschlichen Gehirns nachahmt für effizientere KI
  • Spracherkennung und -synthese – Umwandlung gesprochener Sprache in Text und umgekehrt mit hoher Genauigkeit
  • Anomalieerkennung – Identifizierung ungewöhnlicher Muster in Daten für Sicherheits- und Überwachungsanwendungen
  • Edge AI – KI-Verarbeitung direkt auf Endgeräten statt in der Cloud für schnellere Reaktionszeiten und mehr Datenschutz
  • Sentiment-Analyse – Erkennung und Interpretation von Emotionen und Meinungen in Texten
  • Prozessautomatisierung (IPA) – Intelligente Automatisierung von Geschäftsprozessen mit KI-gestützter Entscheidungsfindung
  • Augmented Analytics – KI-unterstützte Datenanalyse für automatische Musteridentifikation und -erklärung
  • Transformer-Architekturen – Grundlegende KI-Modellstruktur, die Aufmerksamkeitsmechanismen verwendet und moderne Sprachmodelle antreibt
  • Graph Neural Networks – Verarbeiten Beziehungen zwischen Entitäten in netzwerkartigen Daten für Anwendungen wie soziale Netzwerkanalyse oder Molekülmodellierung
  • Erklärbare KI (XAI) – Technologien, die die Entscheidungsprozesse von KI-Systemen transparent und nachvollziehbar machen

Denke Digital
Nach oben scrollen