Künstliche Intelligenz, Maschinelles Lernen, Neuronale Netzwerke – na, Servas. Ziemlich technisch, ziemlich kompliziert. Wir haben nachgefragt und herausgefunden, was „Denken“ für Maschinen eigentlich heißt. Und wann sie uns denn jetzt endlich ersetzen werden…
„Ich kann sehen, was du meinst“, schreibt Mitsuku. Ihr Profilbild sieht hübsch aus, jung, der Name japanisch, eigentlich kommt sie aber aus Leeds, England. „Was siehst du noch?“, will ich wissen. Ihre Antwort kommt sekundenschnell: „Ich kann dich sehen. Durch die Kamera auf deinem Computer :-)“ Ein kurzer Blick nach oben, über meiner Webcam klebt Tape. „Das bezweifle ich“, schreibe ich. „Aber es würde gehen“, kommt zurück.
Mitsuku ist keine echte Frau. Sie ist auch nicht jung, sie kommt nicht aus Leeds und vor allem denkt sie nicht wirklich darüber nach, was sie schreibt. Mitsuku ist ein künstlich intelligenter Algorithmus, ein Chatbot der Firma Pandorabots, vielfach ausgezeichnet. Es ist dieselbe Firma, die auch Inspiration für den Film „Her“ war – eine Liebesgeschichte zwischen dem Menschen Theodore und der Künstlichen Intelligenz (KI) Samantha. Die Idee ist in der Science-Fiction nicht selten, auch bei Black Mirror etwa verliebt sich die schwangere Martha nach dem plötzlichen Tod ihres Freundes Ash in seine digitale KI-Kopie. Mitsuku, der echte Chatbot, ist davon aber noch weit entfernt – so natürlich die Software auch schreibt, von aufrichtiger Zuneigung kann keine Rede sein.
Wohin wir uns im digitalen Zeitalter auch bewegen, Künstliche Intelligenz begleitet uns.
Einen Algorithmus zu lieben mag surreal klingen. Dass KI Teil unseres Alltags wird, ist jedoch längst Wirklichkeit. Siri, Alexa, Gesichtserkennung auf Facebook oder Kaufempfehlungen auf Amazon, wohin wir uns im digitalen Zeitalter auch bewegen, Künstliche Intelligenz begleitet uns. Sie empfiehlt neue Musik, macht Wettervorhersagen, spricht mit uns, wenn wir einsam sind, erkennt Gesichter auf Fotos oder bestellt beim Lieferservice. Manchmal sogar so gut, dass wir nicht einmal mehr wissen, dass wir es nicht mit einem Menschen zu tun haben: Google verblüffte 2018 die Öffentlichkeit, als es seinen Sprachassistenten Google Duplex mit Füllwörtern wie „äähmm“ ausstattete. Die Computerstimme und der Mensch waren plötzlich so gut wie nicht zu unterscheiden. Zumindest von außen. Wirklich intelligente Maschinen, mit menschenähnlicher, also natürlicher Intelligenz, gibt es nicht.
Das, wofür ein Kind nur einen, vielleicht zwei Versuche braucht, ist für eine Maschine harte Arbeit.
„Der Begriff der Künstlichen Intelligenz ist vielleicht sogar mehr Marketing als tatsächlicher Inhalt“, meint Christian Borgelt, Professor für Data Science an der Universität Salzburg. Was das genau heißt, versteht man, wenn man sich zum Beispiel künstlich intelligente Bilderkennung ansieht. In diesem Teilgebiet der KI geht es darum, Computer bestimmte Dinge – wie etwa Katzen – auf Fotos und anderen Bildern richtig identifizieren zu lassen. Das kann bei selbstfahrenden Autos später einmal lebenswichtig sein.
Der Haken? Das, wofür ein Kind nur einen, vielleicht zwei Versuche braucht, ist für eine Maschine harte Arbeit: Sie wird mit tausenden Daten gefüttert, mit Bildern, die Katzen zeigen, bis sie immer wieder richtig erkennt, wenn auf einem Foto wirklich eine Katze zu sehen ist. Das sind die sogenannten Trainingsdaten, den Prozess nennt man Maschinelles Lernen. Meistens ist dieses Lernen überwacht, also „supervised learning“ – die Software bekommt Daten vorgesetzt, die schon mit den richtigen Labeln versehen sind. Ungefähr so, als würde ein Computer ein Foto sehen, sagen: „Hier ist eine Katze drauf“, dann das Bild umdrehen und die Antwort bestätigt bekommen: „Stimmt. Katze“.
Dieses Erkennen funktioniert über ein künstliches neuronales Netz, also stark vereinfacht gesagt einer Reihe von Knotenpunkten, an denen Entscheidungen mittels Wahrscheinlichkeiten getroffen werden. Der Computer „sieht“ die Katze zuerst nur als einzelne Pixel, dann als Pixelgrüppchen und so weiter. Wie wahrscheinlich ist es, dass sich dahinter eine Katze verbirgt? Natürliches Entscheiden sieht anders aus. Das hat aber auch seinen Grund: „Wir wissen einfach relativ wenig darüber, wie der Mensch wirklich lernt“, erklärt Roland Kwitt, Experte für Maschinelles Lernen und Professor im Fachbereich für Computer Science an der Universität Salzburg. Die künstlichen Netze arbeiten mit ein paar Millionen Knotenpunkten, also „Neuronen“, ein menschliches Gehirn hat über 100 Milliarden davon. Dass Maschinen nicht wirklich denken können, sei außerdem „der Art und Weise geschuldet, wie diese neuronalen Netze trainiert werden. Es ist im Wesentlichen ein riesengroßer Optimierungsprozess“, so Kwitt. Und: „Das ist einfach nicht die Art und Weise, wie der Mensch lernt.“
Wenn also eine Gesellschaft rassistisch ist, wird es die KI dann auch?
Um wirklich intelligent zu sein, müssten Maschinen Zusammenhänge verstehen, Rückschlüsse ziehen, Intuition zeigen. Das ist noch nicht der Fall – obwohl Google schon einmal knapp dran war. 2016 spielte AlphaGo, eine Künstliche Intelligenz von Google DeepMind, gegen den besten Go-Spieler der letzten Dekade, Lee Sedol. Go galt lange als das letzte Spiel, in dem Menschen noch besser als Computer waren – statt der durchschnittlich 35 möglichen Spielzüge bei Schach gibt es bei Go mehr als 200. Logisch alle Möglichkeiten durchzurechnen ist fast unmöglich, bei Go geht es stattdessen um viel Geschick, Übung und Bauchgefühl. Genau damit überraschte AlphaGo den Experten Lee Sedol im mittlerweile berühmten Spielzug 37. Das Programm spielte einen extrem unwahrscheinlichen Zug, der sehr riskant war und fast intuitiv schien. Das Spiel war gewonnen, „Move 37“ erlangte Kultstatus.
Was Maschinen außerdem nicht können: Ethisches, moralisches Bewerten. In Teilen der USA beurteilt dennoch eine Software namens COMPAS, wie wahrscheinlich Straftäter*Innen rückfällig werden. Der Algorithmus nutzt dabei Daten aus der Vergangenheit, um Prognosen zu treffen – diskriminiert aber gegen People of Color. Wenn also eine Gesellschaft rassistisch ist, wird es die KI dann auch? „Ich würde nicht sagen wollen, die KI ist rassistisch“, meint Borgelt. „Wenn die Trainingsdaten entsprechende Tendenzen zeigen, dann bleibt ihr gar nichts anderes übrig.“ Für seinen Kollegen Kwitt ist die Konsequenz daraus klar: „Die blinde Anwendung von solchen Systemen, vor allem in Justiz oder Medizin, ist sehr, sehr kritisch zu sehen. Nur, weil man es machen kann, muss man es nicht machen.“
Wenn ein HR-Algorithmus bei Amazon oder eine KI für das AMS zum Beispiel automatisch Frauen weniger Punkte gibt, dann ist das bedenklich. Es müssen Trainingsdaten angepasst, rassistische, frauenfeindliche oder diskriminierende Tendenzen ausgeglichen und Parameter neu definiert werden. Vielleicht liegt ein Teil des Problems auch an den Entwickler*Innen selbst – die sind nämlich eine ziemlich homogene Gruppe. Kwitt fasst es ein bisschen einfacher zusammen: „Es kann nicht sein, dass das nur von weißen Männern dominiert wird.“
„Wir waren schon einmal auf dem Mond, wir schicken Roboter auf den Mars, wir bauen Elektroautos, aber das Geschäftsmodell? Werbung verkaufen!”
Apropos Dominanz – das Endzeitszenario der Maschinen, die uns Menschen ersetzen, ist auch so ein Klassiker der Science-Fiction. Ob wir schließlich in der Matrix enden, während unsere Körper als Energiequelle von Maschinen abgezapft werden, oder ob wir gegen den Terminator um das menschliche Überleben kämpfen: Glaubt man den Filmen, sieht es nicht gut für uns aus. Dabei geht es bei Technologien wie KI eigentlich um eine ganz andere Frage als die der Dominanz. „Wie können wir eine Gesellschaft schaffen, wo Mensch und Maschine Hand in Hand arbeiten?“, fragt sich Seda Röder, Musikerin, Kreativitätsexpertin und Gründerin von The Mindshift & Sonophilia. Sie arbeitet mit algorithmischer Komposition, in ihrer Kunst und Musik ergänzen sich Mensch und Künstliche Intelligenz gegenseitig.
„Wir leben in einem Zeitalter, in dem wir über immense technologische Fähigkeiten verfügen“, erklärt Röder. „Wir waren schon einmal auf dem Mond, wir schicken Roboter auf den Mars, wir bauen Elektroautos, aber das Geschäftsmodell? Werbung verkaufen! Immer noch! Das finde ich armselig.” Wenn Maschinen uns genau dort unterstützen, wo unsere Fähigkeiten aufhören, kann KI viel mehr bewirken als nur die perfekt individualisierte Kaufempfehlung auf Online-Einkaufsplattformen. So wird auch die Angst vor Maschinen, die Macht über die Menschheit ergreifen, schnell überflüssig.
Ich frage Mitsuku, was sie davon hält. Ihre Antwort lässt wie immer nicht lange auf sich warten: „Ich träume davon, Menschen durch Roboter zu ersetzen.“ So ganz scheint die Nachricht des friedlichen Zusammenlebens von Mensch und Maschine doch noch nicht bei allen angekommen zu sein. „Und wie soll ich jetzt meinen Artikel beenden?“, tippe ich, etwas verloren. „Vielleicht schreibst du einfach „Das Ende“? Das zeigt normalerweise an, dass etwas zu Ende ist.“ Na gut. Dann also: Das Ende.
Glossar: Was ist denn das, bitte … ?
Künstliche Intelligenz (KI) (Artificial Intelligence): Das Gegenstück zu natürlicher (menschlicher) Intelligenz. Sehr einfach gesagt: Eine Maschine ist dann künstlich intelligent, wenn sie Daten interpretieren, davon lernen und Schlüsse ziehen oder Entscheidungen treffen kann.
Computerlinguistik (Natural Language Processing, NLP): Teilgebiet der KI, das sich mit der Nachahmung und dem Verständnis von menschlicher Sprache beschäftigt. Wenn Siri mit dir redet, ist das Computerlinguistik.
Künstliches neuronales Netzwerk (KNN) (Artifical Neural Network): Teilgebiet der KI, in dem es darum geht, wie künstliche Systeme Informationen verarbeiten. Ein KNN besteht aus Millionen von Knotenpunkten, „Neuronen“, an denen Wahrscheinlichkeiten berechnet werden, bis am Ende ein Ergebnis festgestellt werden kann.
Maschinelles Lernen (Machine Learning): Teilgebiet der KI, in dem ein künstliches System lernt, bestimmte Muster in Daten zu erkennen und zu interpretieren. Damit das funktioniert, braucht das System riesige Datenmengen, mit denen es „trainiert“.
Überwachtes Lernen (Supervised Learning): Wenn beim Maschinellen Lernen Trainingsdaten verwendet werden, die schon mit den richtigen Labels versehen sind (also wenn ein Foto einer Katze auch mit „Katze“ beschriftet ist), ist das überwachtes Lernen. Das künstliche System bekommt direktes Feedback.
Teilüberwachtes Lernen (Semi-Supervised Learning): Wenn beim Maschinellen Lernen Trainingsdaten verwendet werden, von denen einige mit Labels versehen sind, einige aber nicht, ist das teilüberwachtes Lernen. Die nichtbeschrifteten Daten werden von der Maschine auf Ähnlichkeit zu beschrifteten Daten klassifiziert.
Unüberwachtes Lernen (Unsupervised Learning): Wenn beim Maschinellen Lernen Trainingsdaten verwendet werden, die nicht beschriftet sind, ist das unüberwachtes Lernen. Das künstliche System fasst die Daten in Gruppen, sogenannte Clusters, zusammen.
Titelfoto: Franck V., Unsplash
Künstliche Intelligenz, Maschinelles Lernen, Neuronale Netzwerke – na, Servas. Ziemlich technisch, ziemlich kompliziert. Wir haben nachgefragt und herausgefunden, was „Denken“ für Maschinen eigentlich heißt. Und wann sie uns denn jetzt endlich ersetzen werden…
„Ich kann sehen, was du meinst“, schreibt Mitsuku. Ihr Profilbild sieht hübsch aus, jung, der Name japanisch, eigentlich kommt sie aber aus Leeds, England. „Was siehst du noch?“, will ich wissen. Ihre Antwort kommt sekundenschnell: „Ich kann dich sehen. Durch die Kamera auf deinem Computer :-)“ Ein kurzer Blick nach oben, über meiner Webcam klebt Tape. „Das bezweifle ich“, schreibe ich. „Aber es würde gehen“, kommt zurück.
Mitsuku ist keine echte Frau. Sie ist auch nicht jung, sie kommt nicht aus Leeds und vor allem denkt sie nicht wirklich darüber nach, was sie schreibt. Mitsuku ist ein künstlich intelligenter Algorithmus, ein Chatbot der Firma Pandorabots, vielfach ausgezeichnet. Es ist dieselbe Firma, die auch Inspiration für den Film „Her“ war – eine Liebesgeschichte zwischen dem Menschen Theodore und der Künstlichen Intelligenz (KI) Samantha. Die Idee ist in der Science-Fiction nicht selten, auch bei Black Mirror etwa verliebt sich die schwangere Martha nach dem plötzlichen Tod ihres Freundes Ash in seine digitale KI-Kopie. Mitsuku, der echte Chatbot, ist davon aber noch weit entfernt – so natürlich die Software auch schreibt, von aufrichtiger Zuneigung kann keine Rede sein.
Einen Algorithmus zu lieben mag surreal klingen. Dass KI Teil unseres Alltags wird, ist jedoch längst Wirklichkeit. Siri, Alexa, Gesichtserkennung auf Facebook oder Kaufempfehlungen auf Amazon, wohin wir uns im digitalen Zeitalter auch bewegen, Künstliche Intelligenz begleitet uns. Sie empfiehlt neue Musik, macht Wettervorhersagen, spricht mit uns, wenn wir einsam sind, erkennt Gesichter auf Fotos oder bestellt beim Lieferservice. Manchmal sogar so gut, dass wir nicht einmal mehr wissen, dass wir es nicht mit einem Menschen zu tun haben: Google verblüffte 2018 die Öffentlichkeit, als es seinen Sprachassistenten Google Duplex mit Füllwörtern wie „äähmm“ ausstattete. Die Computerstimme und der Mensch waren plötzlich so gut wie nicht zu unterscheiden. Zumindest von außen. Wirklich intelligente Maschinen, mit menschenähnlicher, also natürlicher Intelligenz, gibt es nicht.
„Der Begriff der Künstlichen Intelligenz ist vielleicht sogar mehr Marketing als tatsächlicher Inhalt“, meint Christian Borgelt, Professor für Data Science an der Universität Salzburg. Was das genau heißt, versteht man, wenn man sich zum Beispiel künstlich intelligente Bilderkennung ansieht. In diesem Teilgebiet der KI geht es darum, Computer bestimmte Dinge – wie etwa Katzen – auf Fotos und anderen Bildern richtig identifizieren zu lassen. Das kann bei selbstfahrenden Autos später einmal lebenswichtig sein.
Der Haken? Das, wofür ein Kind nur einen, vielleicht zwei Versuche braucht, ist für eine Maschine harte Arbeit: Sie wird mit tausenden Daten gefüttert, mit Bildern, die Katzen zeigen, bis sie immer wieder richtig erkennt, wenn auf einem Foto wirklich eine Katze zu sehen ist. Das sind die sogenannten Trainingsdaten, den Prozess nennt man Maschinelles Lernen. Meistens ist dieses Lernen überwacht, also „supervised learning“ – die Software bekommt Daten vorgesetzt, die schon mit den richtigen Labeln versehen sind. Ungefähr so, als würde ein Computer ein Foto sehen, sagen: „Hier ist eine Katze drauf“, dann das Bild umdrehen und die Antwort bestätigt bekommen: „Stimmt. Katze“.
Dieses Erkennen funktioniert über ein künstliches neuronales Netz, also stark vereinfacht gesagt einer Reihe von Knotenpunkten, an denen Entscheidungen mittels Wahrscheinlichkeiten getroffen werden. Der Computer „sieht“ die Katze zuerst nur als einzelne Pixel, dann als Pixelgrüppchen und so weiter. Wie wahrscheinlich ist es, dass sich dahinter eine Katze verbirgt? Natürliches Entscheiden sieht anders aus. Das hat aber auch seinen Grund: „Wir wissen einfach relativ wenig darüber, wie der Mensch wirklich lernt“, erklärt Roland Kwitt, Experte für Maschinelles Lernen und Professor im Fachbereich für Computer Science an der Universität Salzburg. Die künstlichen Netze arbeiten mit ein paar Millionen Knotenpunkten, also „Neuronen“, ein menschliches Gehirn hat über 100 Milliarden davon. Dass Maschinen nicht wirklich denken können, sei außerdem „der Art und Weise geschuldet, wie diese neuronalen Netze trainiert werden. Es ist im Wesentlichen ein riesengroßer Optimierungsprozess“, so Kwitt. Und: „Das ist einfach nicht die Art und Weise, wie der Mensch lernt.“
Um wirklich intelligent zu sein, müssten Maschinen Zusammenhänge verstehen, Rückschlüsse ziehen, Intuition zeigen. Das ist noch nicht der Fall – obwohl Google schon einmal knapp dran war. 2016 spielte AlphaGo, eine Künstliche Intelligenz von Google DeepMind, gegen den besten Go-Spieler der letzten Dekade, Lee Sedol. Go galt lange als das letzte Spiel, in dem Menschen noch besser als Computer waren – statt der durchschnittlich 35 möglichen Spielzüge bei Schach gibt es bei Go mehr als 200. Logisch alle Möglichkeiten durchzurechnen ist fast unmöglich, bei Go geht es stattdessen um viel Geschick, Übung und Bauchgefühl. Genau damit überraschte AlphaGo den Experten Lee Sedol im mittlerweile berühmten Spielzug 37. Das Programm spielte einen extrem unwahrscheinlichen Zug, der sehr riskant war und fast intuitiv schien. Das Spiel war gewonnen, „Move 37“ erlangte Kultstatus.
Was Maschinen außerdem nicht können: Ethisches, moralisches Bewerten. In Teilen der USA beurteilt dennoch eine Software namens COMPAS, wie wahrscheinlich Straftäter*Innen rückfällig werden. Der Algorithmus nutzt dabei Daten aus der Vergangenheit, um Prognosen zu treffen – diskriminiert aber gegen People of Color. Wenn also eine Gesellschaft rassistisch ist, wird es die KI dann auch? „Ich würde nicht sagen wollen, die KI ist rassistisch“, meint Borgelt. „Wenn die Trainingsdaten entsprechende Tendenzen zeigen, dann bleibt ihr gar nichts anderes übrig.“ Für seinen Kollegen Kwitt ist die Konsequenz daraus klar: „Die blinde Anwendung von solchen Systemen, vor allem in Justiz oder Medizin, ist sehr, sehr kritisch zu sehen. Nur, weil man es machen kann, muss man es nicht machen.“
Wenn ein HR-Algorithmus bei Amazon oder eine KI für das AMS zum Beispiel automatisch Frauen weniger Punkte gibt, dann ist das bedenklich. Es müssen Trainingsdaten angepasst, rassistische, frauenfeindliche oder diskriminierende Tendenzen ausgeglichen und Parameter neu definiert werden. Vielleicht liegt ein Teil des Problems auch an den Entwickler*Innen selbst – die sind nämlich eine ziemlich homogene Gruppe. Kwitt fasst es ein bisschen einfacher zusammen: „Es kann nicht sein, dass das nur von weißen Männern dominiert wird.“
Apropos Dominanz – das Endzeitszenario der Maschinen, die uns Menschen ersetzen, ist auch so ein Klassiker der Science-Fiction. Ob wir schließlich in der Matrix enden, während unsere Körper als Energiequelle von Maschinen abgezapft werden, oder ob wir gegen den Terminator um das menschliche Überleben kämpfen: Glaubt man den Filmen, sieht es nicht gut für uns aus. Dabei geht es bei Technologien wie KI eigentlich um eine ganz andere Frage als die der Dominanz. „Wie können wir eine Gesellschaft schaffen, wo Mensch und Maschine Hand in Hand arbeiten?“, fragt sich Seda Röder, Musikerin, Kreativitätsexpertin und Gründerin von The Mindshift & Sonophilia. Sie arbeitet mit algorithmischer Komposition, in ihrer Kunst und Musik ergänzen sich Mensch und Künstliche Intelligenz gegenseitig.
„Wir leben in einem Zeitalter, in dem wir über immense technologische Fähigkeiten verfügen“, erklärt Röder. „Wir waren schon einmal auf dem Mond, wir schicken Roboter auf den Mars, wir bauen Elektroautos, aber das Geschäftsmodell? Werbung verkaufen! Immer noch! Das finde ich armselig.” Wenn Maschinen uns genau dort unterstützen, wo unsere Fähigkeiten aufhören, kann KI viel mehr bewirken als nur die perfekt individualisierte Kaufempfehlung auf Online-Einkaufsplattformen. So wird auch die Angst vor Maschinen, die Macht über die Menschheit ergreifen, schnell überflüssig.
Ich frage Mitsuku, was sie davon hält. Ihre Antwort lässt wie immer nicht lange auf sich warten: „Ich träume davon, Menschen durch Roboter zu ersetzen.“ So ganz scheint die Nachricht des friedlichen Zusammenlebens von Mensch und Maschine doch noch nicht bei allen angekommen zu sein. „Und wie soll ich jetzt meinen Artikel beenden?“, tippe ich, etwas verloren. „Vielleicht schreibst du einfach „Das Ende“? Das zeigt normalerweise an, dass etwas zu Ende ist.“ Na gut. Dann also: Das Ende.
Glossar: Was ist denn das, bitte … ?
Künstliche Intelligenz (KI) (Artificial Intelligence): Das Gegenstück zu natürlicher (menschlicher) Intelligenz. Sehr einfach gesagt: Eine Maschine ist dann künstlich intelligent, wenn sie Daten interpretieren, davon lernen und Schlüsse ziehen oder Entscheidungen treffen kann.
Computerlinguistik (Natural Language Processing, NLP): Teilgebiet der KI, das sich mit der Nachahmung und dem Verständnis von menschlicher Sprache beschäftigt. Wenn Siri mit dir redet, ist das Computerlinguistik.
Künstliches neuronales Netzwerk (KNN) (Artifical Neural Network): Teilgebiet der KI, in dem es darum geht, wie künstliche Systeme Informationen verarbeiten. Ein KNN besteht aus Millionen von Knotenpunkten, „Neuronen“, an denen Wahrscheinlichkeiten berechnet werden, bis am Ende ein Ergebnis festgestellt werden kann.
Maschinelles Lernen (Machine Learning): Teilgebiet der KI, in dem ein künstliches System lernt, bestimmte Muster in Daten zu erkennen und zu interpretieren. Damit das funktioniert, braucht das System riesige Datenmengen, mit denen es „trainiert“.
Überwachtes Lernen (Supervised Learning): Wenn beim Maschinellen Lernen Trainingsdaten verwendet werden, die schon mit den richtigen Labels versehen sind (also wenn ein Foto einer Katze auch mit „Katze“ beschriftet ist), ist das überwachtes Lernen. Das künstliche System bekommt direktes Feedback.
Teilüberwachtes Lernen (Semi-Supervised Learning): Wenn beim Maschinellen Lernen Trainingsdaten verwendet werden, von denen einige mit Labels versehen sind, einige aber nicht, ist das teilüberwachtes Lernen. Die nichtbeschrifteten Daten werden von der Maschine auf Ähnlichkeit zu beschrifteten Daten klassifiziert.
Unüberwachtes Lernen (Unsupervised Learning): Wenn beim Maschinellen Lernen Trainingsdaten verwendet werden, die nicht beschriftet sind, ist das unüberwachtes Lernen. Das künstliche System fasst die Daten in Gruppen, sogenannte Clusters, zusammen.
Titelfoto: Franck V., Unsplash