Zusammenspiel von Mensch und KI
Entstehung von Intelligenz
Um abschätzen zu können, wie wir künftig mit KI leben und arbeiten werden (und wollen), lohnt sich ein Blick darauf, was wir „Intelligenz“ nennen und wie wir heute mit der Intelligenz anderer umgehen.
Ein anschauliches Beispiel dafür ist Schwarmverhalten: Einzelne Ameisen verfügen über begrenzte Fähigkeiten, doch der Ameisenstaat zeigt als Gesamtsystem Verhaltensweisen, die man auf Ebene der einzelnen Ameise so nicht findet – etwa die Bildung „lebender Brücken“. Das ist mehr als die Summe wie z. B. „mehr Kraft durch mehr Tiere“ beim gemeinsamen Tragen: Bei der Brücke entsteht eine neue intelligente Systemfunktion, indem die einzelnen Ameisen wenige simple Regeln befolgen (= Algorithmus), wie das Video “The Intelligence Test Where Ants Beat Humans” von Be Smart schön aufzeigt. Man nennt das emergente Eigenschaften: Eigenschaften, die sinnvoll erst auf der Ebene des Gesamtsystems beschrieben werden. Das Gesamtsystem ist hier der Ameisenstaat. Damit ist der Ameisenstaat intelligenter als die Summe aller Ameisen – intelligent im Sinne der Fähigkeit eines Systems, in einer Umwelt zielgerichtet zu handeln und Probleme zu lösen.
Wichtig ist dabei: Emergenz bedeutet nicht magisch „mehr“ oder „besser“, sondern "anders". Intelligenz kann auf einer Systemebene sichtbar werden, ohne dass jedes Element des Systems „für sich“ intelligent sein muss.
Dasselbe Muster finden wir in Menschengesellschaften: Organisationen (Unternehmen, Verbrecherbanden, Universitäten, Feuerwehr, Märkte) verarbeiten Informationen, koordinieren Handeln, lösen Probleme und passen sich an veränderte Bedingungen an, wie das die einzelnen Individuen nicht tun könnten (zu Emergenz in Märkten vgl. Paul Lewis. Notions of order and process in Hayek: the significance of emergence. Cambridge Journal of Economics, Volume 39, Issue 4, July 2015, 1167–1190). Auch diese Systeme folgen Regeln – teils bewusst gestaltet (Organigramme, Prozesse), teils unbewusst entstanden (Märkte, Trends, Gerüchte). Vorsichtig könnte man sie schon als eine Art menschengemachte künstliche Intelligenz bezeichnen. Das ist keine Gleichsetzung mit „KI“ im technischen Sinn, aber es hilft als Denkmodell: Intelligenz ist nicht nur eine Eigenschaft einzelner Köpfe – sie kann auch eine Eigenschaft von Systemen sein.
Aber auch in den Köpfen findet man dasselbe Muster wieder: Neuronen sind einzelne Zellen, die nach lokalen Regeln Signale weitergeben. Richtig intelligent ist nicht das einzelne Neuron, sondern das Gesamtsystem aus Gehirn, Körper und Umwelt. So erscheinen Denken (vgl. Earl K. Miller et al. Cognition is an emergent property. Curr Opin Behav Sci. 2024 Jun; 57) und Bewusstsein (sofern man sie als Gehirnphänomene versteht) als Ergebnisse komplexer Systemdynamik aus simplen neuronalen Regeln und Umweltinteraktion, nicht zwingend als Voraussetzung für Intelligenz. Ein Ameisenstaat hat als Staat vermutlich kein Bewusstsein, aber trotzdem eine gewisse Intelligenz. Ein System kann Probleme lösen, ohne subjektiv zu „erleben“, was es tut.
KI-Systeme simulieren Neuronen, die nach lokalen Regeln Signale verarbeiten. Daraus emergieren Fähigkeiten wie Textverarbeitung oder Bilderzeugung (vgl. Zoph Barret et al. Emergent abilities of large language models. Transactions on Machine Learning Research, August 2022). Mehr dazu in Grundlagen in Kürze.
Was bei KI anders ist
Viele Intelligenzformen, mit denen wir historisch zu tun hatten – Tiere, Menschen, Organisationen, Märkte – sind biologisch oder historisch gewachsen und daher in ihrem Verhalten oft intuitiv nachvollziehbar (nicht unbedingt kontrollierbar, aber verstehbar).
Moderne KI-Systeme – etwa Large Language Models – sind dagegen digital: Sie laufen auf Hardware, werden mit riesigen Datenmengen trainiert und können in Produkte eingebettet werden, wo wir sie nicht erkennen. Daraus ergeben sich Eigenschaften, die im Vergleich zu biologischer Intelligenz neu oder drastisch verstärkt sind:
- Skalierung und Kopierbarkeit
Eine einmal trainierte Fähigkeit kann unter tiefen Kosten nahezu beliebig oft repliziert und gleichzeitig eingesetzt werden. Das verändert Arbeitsmärkte, Bildung, Verwaltung und Desinformationsdynamiken. - Geschwindigkeit und Verfügbarkeit
Systeme reagieren sofort, 24/7, in gleichbleibender Qualität – und können tief in Prozesse integriert werden. - Kopplung an Tools und Infrastruktur
Sprachmodelle sind für sich „nur“ Textsysteme. In Kombination mit Tools (Suche, Datenbanken, Codeausführung, Agenten) werden sie zu Handlungs-Systemen, die über das Internet oder Robotik/Drohnen reale Wirkung entfalten. - Begrenzte Erklärbarkeit (Black Box)
Selbst wenn wir den Trainingsprozess kennen, bleiben viele interne Entscheidungswege schwierig interpretierbar. Das erschwert Verantwortung, Auditierung und Fehleranalyse. - Unvorhersehbare Fähigkeiten (Emergenz)
Wenn die Rechenleistung oder Datenmenge einen gewissen Schwellenwert überschreitet, beobachten wir, dass KI-Systeme Fähigkeiten entwickeln, die nicht explizit trainiert wurden, z. B. logisches Schliessen oder Programmieren, obwohl sie nur auf Textvorhersage trainiert wurden (vgl. Zoph Barret et al. Emergent abilities of large language models. Transactions on Machine Learning Research, August 2022). Das ist einerseits ein praktisches Feature, andererseits macht es KI auch unberechenbar, v. a. bezüglich ihrer Kontrollierbarkeit. - Optimierung auf Proxy-Ziele und Nebenwirkungen
Systeme optimieren auf messbare Ziele (Accuracy, Engagement, Kosten, Durchsatz). Wenn das Proxy-Ziel nicht gut gewählt ist, entstehen Nebenwirkungen – manchmal schleichend, manchmal abrupt. Zum Beispiel scheinen KI-Algorithmen, die das Engagement auf sozialen Netzwerken maximieren sollen, politische Polarisierung zu fördern (vgl. Smitha Milli et al., Engagement, user satisfaction, and the amplification of divisive content on social media, PNAS Nexus, Volume 4, Issue 3, March 2025, 062, https://doi.org/10.1093/pnasnexus/pgaf062).
In diesen Eigenschaften liegen enorme Potenziale – konstruktiv wie destruktiv.
Umgang mit fremder Intelligenz
Unser Umgang mit der Intelligenz anderer wird stark davon geprägt, welche Bedürfnisse wir haben – und wie gut wir sie durchsetzen können. Intelligenz ist dabei ein entscheidender Machtfaktor, der körperliche Überlegenheit rasch dominiert. Er lässt sich ausspielen, z. B. über besseren Zugang zu Ressourcen, komplexer Koordination, Informationsvorsprung, Beherrschen von Technologie, Ausnutzen von Abhängigkeiten, das Schaffen von geschickten Anreizstrukturen und im Extremfall Zwang.
Wenn wir eine Strasse bauen, setzen wir uns gegenüber lokalen Tieren meist leicht durch. In der Beziehung Mensch–Hund gelingt es uns oft, Verhalten zu formen, weil wir Nähe, Futter, Training und Regeln kontrollieren. In anderen Konstellationen ist die Lage umgekehrt: Unternehmen beeinflussen uns über Marketing und Produktdesign, soziale Gruppen über Normen und Sanktionen, Staaten über Recht und Gewaltmonopol. Oft handeln wir dann „freiwillig“, aber unter spürbaren oder versteckten Anreiz- und Druckstrukturen. Schon kleine Intelligenz- und Erfahrungsunterschiede können ein grosses Machtgefälle entstehen lassen, wie z. B. unter unterschiedlich alten Geschwistern.
Diese Logik gilt auch bei KI. Momentan gibt es noch keine Artificial General Intelligence (AGI), also KI mit menschlichen Fähigkeiten, sondern nur Artificial Narrow Intelligence (ANI), die in wenigen Fähigkeiten den Menschen übertrifft, z. B. Schachspiel, Tumorerkennung, Wettervorhersage oder Drohnensteuerung, ihm aber in allen anderen Bereichen unterlegen ist. Entsprechend spielt die KI ihre Überlegenheit dort aus, wo sie sie hat, z. B. im Schach, wo sie gewinnt. Da der Mensch ihr in anderen Bereichen überlegen ist, kann er sie als solche noch gut kontrollieren. Doch je mehr wir KI in Richtung AGI entwickeln, desto mehr stellen sich Sicherheitsfragen (vgl. AI CERTs. Existential Safety Concerns Rise as Expert Warns on AI Control, 2025, URL: https://www.aicerts.ai/news/existential-safety-concerns-rise-as-expert-warns-on-ai-control/ ). Mehr dazu in Chancen und Risiken.