Episode 103
Ep. 103: KI ist parasoziale Pornografie (Talk mit Thomas Hirschmann)
Warum sind wir eigentlich nicht intelligenter? Diese simple Frage war der Ausgangspunkt für ein ziemlich tiefes Gespräch mit Tom Hirschmann, CEO von Core Cortex und jemand, der KI schon gemacht hat, als wir alle noch dachten, Machine-Learning sei eine neue Netflix-Serie.
Wir sprechen darüber, was es mit dem Begriff „parasoziale Pornografie“ auf sich hat – und warum ChatGPT vielleicht genau das ist. Wir tauchen ein in die Frage, wie menschlich wir wirklich sein wollen, wenn’s doch so bequem ist, sich vom Algorithmus Antworten servieren zu lassen. Und warum echte Komplexität anstrengend ist, aber eben auch die einzige Chance, wirklich zu wachsen.
Was heißt das für Führung? Wie kann ich KI sinnvoll nutzen, ohne meine Urteilskraft zu verlieren? Wie bleibe ich als Organisation lernfähig, wenn der Reiz des schnellen „Prompt → Antwort“ so groß ist? Welche Entscheidungen darf ich delegieren – und welche lieber nicht?
Tom bringt eine wichtige Perspektive mit: KI als Tool, nicht als Guru. Als Verstärker, nicht als Ersatz. Und wir reden darüber, wie sehr wir unsere Denk- und Entscheidungskompetenz eigentlich schon ausgelagert haben – von Google Maps bis zur Partnerwahl.
Eine Folge über Autonomie, kognitive Landkarten, Iron Man-Assistenten, Komplexitätsvermeidung – und die Frage, ob dein Hirn noch selbst denkt oder nur noch promptet.
Unbedingt reinhören, gerade wenn du dich fragst:
- Wie viel KI ist gesund?
- Was heißt Führung in einer Welt voller schneller Antworten?
- Und wie bleibt man klar im Kopf, wenn alles immer komplexer wird?
.
So erreicht Ihr Thomas Hirschmann:
LinkedIn: https://www.linkedin.com/in/thomashirschmann/
Homepage: https://www.thomashirschmann.de/
.
Und so erreicht Ihr mich:
Homepage: https://www.odonovan.de/veraenderungsstabil
LinkedIn: https://www.linkedin.com/in/holgerheinze/
Buch: https://shop.haufe.de/prod/dramafreie-arbeitswelt
Tabelle: Download
Transcript
Wichtige Frage ist aber die, warum sind wir nicht intelligenter als wir sind? Warum
hat uns die Evolution nicht intelligenter gemacht? Hätte sie machen können. Und an
dem Punkt unterscheidet sich das, was wir gerade machen mit Glassh Language Models
und KI zu dem, was die Natur gemacht hat. Hallo und herzlich willkommen zu einer
weiteren Folge des Podcasts "Veränderungsstabil", in dem wir uns angucken, was
Organisationen, Systeme, Teams, Menschen, Führungskräfte heutzutage drauf haben sollten,
damit sie in dieser wilden Welt nicht nur nicht untergehen, sondern auch möglichst
dauerhaft wirtschaftlich erfolgreich sein können und gleichzeitig gesund. Ich hole mir
dafür gerne Experten für Themen rein, die sich mit Themen besser auskennen als ich
und mehr mit diesen Themen beschäftigt haben. Und heute ist dieser Gast der Thomas,
Und Tom Hirschmann, lieber Tom, herzlich willkommen. Ja, danke. Ich freue mich sehr,
dass ich heute bei dir sein darf. Tom, du bist der CEO von Core Cortex. Deine
Tagline auf LinkedIn ist "Human AI Co -Creative". Das habe ich nicht aufgeschrieben,
Co -Creative Dinge. Also es geht um co -kreative Sachen zwischen Menschen und KI. Du
bist Diplompsychologe, hast recht auch, einen Abschluss in Recht. Und du hast mir
gesagt, im Grunde genommen, du hast KI schon gemacht, bevor alle KI gemacht haben,
richtig? Korrekt. Ich habe auch den Beweis dafür, den kann ich antreten, weil ich
meine KI -Firma Core Cortex ein Jahr vor JetGPT gegründet habe und habe auch
natürlich zehn Jahre davor schon Machine Learning, Deep Learning angewandt. Das heißt,
bevor KI cool war, war das eigentlich mein tägliches Board. Viele, viele Tools, viele
Daten, analytische Methoden, die ich verwendet habe, haben bereits die Technik an sich
verwendet. Wobei ist nochmal ein Riesenunterschied zwischen Good Old Fashioned AI und
Generative AI, aber ich sage mal so, mehr Intelligenz steckt in der neuen KI nicht
deswegen drin, weil sie mehr teure Technologie verwendet. Da werden wir sicher mehr
noch ein bisschen mehr darüber diskutieren, aber deswegen auch co -kreativ, weil ich
glaube Technik sollte immer instrumentell bleiben und den menschlichen Verstand nicht
ausblenden. Deswegen ist für mich KI auch nur ein weiteres Tool. Es richtig zu
verwenden, heißt eben den Kopf eingeschaltet lassen. Genau da wollen wir heute hin,
also gucken, ob wir diesen Spagat schaffen zwischen kritischer Auseinandersetzung und
insbesondere kritischer Auseinandersetzung des Verhaltens der Menschen im Lichte von KI
und den ganzen Angeboten, die es da gibt. Und auf der anderen Seite aber auch
konstruktiv. Es gibt ja durchaus sinnvolle Dinge. Die erste Frage, die Gäste hier
immer beantworten müssen, ist, stell dir vor, du kommst aus der Zukunft und du
wurdest geschickt als Geheimagent, du sollst ein Unternehmen von innen zersetzen und
sabotieren, weil die etwas Böses vorhaben, am besten ohne, dass du erwischt wirst.
Wenn du deine Superkräfte, deine Erfahrungen, dein spezifisches Nischenwissen anwendest,
wie würdest du so eine Organisation von innen zersetzen oder Na, erst mal würde ich
sagen "Zersetzen" klingt schon so ein bisschen negativ. Ich versuche das mal positiv
zu frame 'n. Ich glaube, Werte sind wichtig, Ethik ist wichtig. Abhängig davon,
welches Werte oder Ethiksystem du verwendest, gibt es natürlich unterschiedliche
Interpretationen hinsichtlich des Ziels, was du dann anwenden kannst, wenn du eine Art
positiv geframtes Zersetzen anwenden wollen würdest. Ich würde immer den Ansatz wählen,
einen aufgeklärtes Eigeninteresse zu verwenden. Und das wäre auch mein
Zersetzungsansatz. Das heißt, ich würde den Menschen, die da versuchen, in die falsche
Richtung sich zu entwickeln, ihnen einfach durch meine Hilfe die Möglichkeit geben,
ihr langfristiges aufgeklärtes Eigeninteresse besser verfolgen zu können. Okay, ich
glaube das erste, der auf diese Frage nicht mit einem echten Sabotageplan antwortet,
sondern eher mit einem, Für mich klären das jetzt so, wie ich kläre sie auf, damit
sie verstehen, dass sie Böses tun, während sie es tun. War das so gemeint? Nein,
nein, gar nicht, weil ich glaube nicht daran, dass du Menschen verändern kannst. Ich
glaube, du kannst ihnen nur dabei helfen, zu verstehen, dass ihr Eigeninteresse
weitreichender Revolgen hat als der direkte nächste Schritt. Ich sag mal so,
gibt dir ein Beispiel, wenn jetzt einer so dumm wäre zu denken, ich muss jetzt
irgendwie jemanden erschlagen, damit ich dessen Geldbörse bekomme, damit ich mir ein
Eis kaufen kann. Dann könntest du dem erklären und sagen, tu pass mal auf. Ich kann
dir auch das Geld fürs Eis einfach geben. Dann musst du den nicht erschlagen. Und
dann reden wir drüber, warum du überhaupt den Impuls hattest, jemanden erschlagen zu
wollen. Und danach geht es dir wahrscheinlich besser, weil du dich besser fühlst und
du kannst deine Energie in was Sinnvolleres Channeln. Also das ist jetzt natürlich
ein dummes Beispiel, aber das wäre so ein bisschen der Ansatz zu sagen, viele
Impulse, die langfristig negativ sind, haben einfach damit zu tun, dass sie
kurzfristig in die falsche Richtung gelenkt sind auf ein Ziel, das zu kurzfristig
ist. Und langfristige Zielausrichtungen, Menschen zu ermöglichen, ist meistens schon der
erste Schritt. Ich habe neugierig von einem Comedian tatsächlich so ein Ding gehört.
Ich habe ein Beispiel war Kindererziehung und ich fand es aber so schön auf den
Punkt gebracht, der hat gesagt, manchmal muss man höflich oder freundlich nicht zur
Gegenwart, sondern zur Zukunft sein. Also Kind ist vor dir und Kind will immer nur
Pommes fressen. Und dann musst du irgendwann sagen, ja, ist jetzt mal vorbei mit dem
Pommes fressen, weil man sagt, okay, du bist so unfreundlich, ist gemein, meine
Kinder sagen, das ist unfair, das ist gemein. Du liebst mich nicht, also da bin ich
noch nicht, aber wenn das wenn man sagen würde, ich sage, naja, ich liebe das, was
du in zehn Jahren sein könntest, wenn du halt keine Diabetes hast, ne? Genau, und
damit tust du ja diese Personen einen Gefallen, einen Riesengefallen, auch wenn sie
das kurzfristig nicht einsehen.
Hey, kurze Durchsage, wenn euch Veränderung stabil gefällt, dann nehmt euch doch mal
kurz Zeit und gebt dem Podcast eine Bewertung auf dem Streaming -Dienst, mit dem ihr
gerade hört. Das hilft uns enorm, weil dann noch mehr Menschen im Podcast entdecken
können und so können wir die Community weiter wachsen lassen. Vielen Dank für's
unterstützen, vielen Dank fürs zuhören und jetzt geht's weiter mit der Episode. Ich
bin mal gespannt, ob wir gleich bei unserer Diskussion von KI tatsächlich, weil wir
kommen jetzt noch in die Elke von Disziplin, so erfasst schon, also sozusagen du
hast auf Englisch diesen Ausspruch "You always have a choice between discipline and
regret", weil es ja auch ein bisschen wie eine Droge ist. Aber wir schleigen anders
ein. Ich war früher großer Fan, ich weiß nicht ob du das noch kennst, Zimmer frei,
Diese Sendung, wo dann da irgendwie Prominente waren und dann gab es immer so ein
Überraschungsgast, dann haben die irgendwie den, den weiß ich nicht, den alten Pfarrer
aus dem Dorf. So ähnlich habe ich das gemacht. Ich habe einen Freund von dir über
dich befragt. Und zwar ist die, pass auf, hintergrund des folgendes. Ich bin ja auf
dich aufmerksam gekommen, weil ein Kollege von mir eine Keynote von dir gehört hat.
Und in dieser Keynote hast du den Umgang mit Chat GPT in der Gegenwart bezeichnet
als als "parasoziale Pornografie". Das fand der Kollege cool. "Grüß Matthias",
und schrieb mir das und ich habe es erstmal nicht verstanden. Also ich kenne alle
Bestandteile dieser Aussage, aber zusammengesagt nicht verstanden. Also, ich bin in
ChatGPT gegangen, 4 .0, und habe gesagt, hör mal zu, jemand hat die Nutzung von
ChatGPT als "parasoziale Pornografie" bezeichnet. Erstens, warum? Zweitens, stimmt das?
Und drittens, was sagt diese Aussage über die Person aus. Hm, interessant. Dann kam,
ich kürze die Antwort ein bisschen, weil wir wissen, JetGPT hat mich erst mal über
den grünen Klee gelobt, was für eine tolle Idee es ist, diese Frage zu stellen, und
so weiter. Das ist ja irgendwie, das muss auch mal abtrainieren, sehr krass, ja
jedes Mal kommst du in, sagst, ey, ich hab mir überlegt, dass ich mir ein Lolli
ins Ohr stecke, und das ist für die... Was für eine tolle Idee! Was so eine gute
Idee macht, das ist so supergute. Also erstens, warum könnt ihr jemand JetGPT als
parasoziale Pornografie bezeichnen. Die Metaphe spielt auf zwei Aspekte an. Erstens
parasoziale. Die Beziehung zu JetGPT ist einseitig, emotional gefärbt und wirkt oft im
Team oder Vertraut, obwohl sie gar keine echte Gegenseitigkeit im menschlichen Sinn
hat. Menschen reden mit JetGPT wie mit einem Vertrauten, Berater oder Freund, aber da
ist keine echte Person. Also das ist alles JetGPT über sich selbst. Pornografie
bietet schnelle Befriedigung von Bedürfnissen, Lust, Nähe, Kontrolle, ohne echte
Beziehung, Verlässlichkeit oder Gegenseitigkeit. Die Analogie zielt also auf die
emotionalen sozialen Bedürfnisse ab, die ChatGPT scheinbar erfüllt. Gesehen werden,
Bestätigung bekommen, keine Angst vor Bewertung und Ablehnung. Kontrolle über tiefe
Dauer und Inhalt des Dialogs ist einseitig. Zusammengeführt, heißt das, ChatGPT wird
wie ein emotionales Selbstbedienungsangebot genutzt, um schnell das Gefühl von Nähe
verstanden werden und Gespräche zu bekommen, ohne dass da echte Begegnung oder echtes
Risiko ist. Ich setze mal ab und frage dich, du nix, wie ein Wilder, das sehen die
Hörer nicht. Aber kannst du mitgehen? Ich bin erstaunt, wie gut das tatsächlich
zusammengefasst ist, aber dass es könnte auch wiederum ein Scheinverständnis sein. Ich
weiß natürlich irgendwie, Verständnis existiert nicht wirklich in KI, deswegen ist es
vielleicht eher ein linguistisches in die richtige Richtung zeigen aufgrund von
statistisch -predektiver Erfolgsquote. Es klingt gut.
Ich lasse es mal so stehen. Okay, dann gucken wir uns schnell den zweiten Teil an.
Ich habe mir gefragt, stimmt das denn? Dann kommen wir als Antwort. Teils, teils.
Ja, parasoziale Elemente sind vorhanden. ChatGbt ahmt soziale Interaktionen nach, gibt
emotionale Resonanz, vermittelt Empathie. Viele Nutzerinnen sprechen in ich -form,
erzählen persönliches und schreiben wie ein Tagebuch oder sprechen mit mir wie mit
einem Therapeuten. Ob das pornografisch ist, hängt stark von der Wertigkeit und
Ernsthaftigkeit der Nutzung ab. Ah, korrekt. Ja, gehst du mit? Und jetzt natürlich
die wichtigste Frage, was sagt das über die Person aus? Was sagt das über die
Person aus, die diesen Begriff verwendet? Ein solcher Begriff verrät viel über den
Deutungsrahmen, aus dem jemand argumentiert. Ah, hoher Anspruch an Beziehung und
Echtheit. Die Person legt möglicherweise Wert auf authentische zwischenmenschliche
Beziehungen und empfindet Angebote wie ChatGPT als "Surrogate", die echte Bindung
gefährden und entwerten. B. Kritik an emotionaler Selbstbedienungskultur. Sie könnte
eine Kritik am Konsum von Beziehungserfahrungen ohne Beziehung äußern. C. Mögliche
Skepsis gegenüber KI. Der Begriff deutet auch auf ein distanzierendes, vielleicht
kulturkritisches Verhältnis zu KI hin. Was wie näher aussieht ist für diese Person
künstlich leer oder manipulativ und die gleichzeitig ein Bedürfnis nach Tiefe. Wer so
pointiert urteilt wünscht sich vermutlich mehr Tiefe, Resonanz und Gegenseitigkeit im
Sozial miteinander und empfindet KI als falsches Versprechen. Ja, sehr spannend,
jetzt hast du mir einen riesen Gefallen getan, weil ich meine heutige Therapie
Sitzung damit absagen kann, die habe ich nämlich schon gehabt. Super, ich finde es
echt super spannend. Was man immer wieder sieht ist, es ist die Person und ist die
Art und Weise, wie man mit KI umgeht, die den Unterschied macht. Weil allein die
Tatsache, dass du jetzt dieses gestufte Vorgehen an den Tag gelegt hast und da
tiefer reingedrüllt bist in diesen Ausdruck und ihn beleuchtet hinterfragt hast und
damit auch mich hinterfragt hast, finde ich genial, weil das auch zeigt erstens
kritischer Umgang mit KI nicht einfach irgendwas so stehen lassen und Nummer zwei
auch Interpretationsmöglichkeiten. Keine Aussage ist für sich ein Ausdruck eines
hundertprozentigen Realitätsversprechens oder einer Realität als solche. Und das ist für
mich so ein bisschen epistemologisch die größte Gefahr, die ich mit KI aktuell sehe,
ein Verflachen der Komplexität unserer realen Wirklichkeit unserer Realität.
Realität ist nicht nur multidimensional, sondern multi -causal. Das heißt, wir haben
nicht diese einfache one -to -one Realität. Ich stelle Frage,
KI gibt mir richtige Antwort. Das ist eine Illusion. Genauso wie viele andere,
sage ich mal, komplexitätsreduzierende Annahmen, eine Illusion in unseren Denkmodellen.
Aber ist das nicht menschlich diese Verkürzungen. Wir sind jetzt an der Ecke mit
Vorurteilen im Grunde genommen. Ich werde das nie vergessen, wenn man eben sauer land
auf einer Hochzeit und da saß jemand neben mir, den ich nicht kannte und der
stellte sich vor mit. Ich bin der Sohn, so einen Namen habe ich vergessen. Ich bin
eigentlich gegen meinen Willen hier, weil das ist eine Bitburger Hochzeit. Ich gehe
eigentlich nur auf Wahrsteiner Hochzeit oder Krombacher, weiß ich nicht mehr, weil
Bitburger Hochzeiten meistens scheiße sind. Ich muss immer wieder diesen Typ denken,
weil das ist so eine brutale Heuristik, aber wir machen das doch gerne, oder ich
sage es noch andersherum. Das geht auch eigentlich gar nicht anders. Wir können doch
nicht die ganze Welt den ganzen Tag differenziert betrachten. Passt du absolut recht.
Ich glaube, der Unterschied ist nur der, lasst uns mal diesen Bitburger Menschen
nehmen oder warst ein Mensch. Was für eine Geschmacksrichtung von Realität er
bevorzugt hat. Das ist eigentlich ein perfektes Beispiel, weil wir fangen ja jetzt
schon an zu sehen, insbesondere ist natürlich auch wieder ein bisschen stereotypisch,
aber ich habe tatsächlich erste empirische Daten dafür auch, dass junge Leute,
insbesondere halt die KI -Nativen, wenn man sie so nennen würde, dass die KI
tatsächlich als kompletten Lebensassistenten verwenden. Also jede Frage in KI
reinstellen zum Beispiel, hey, mein Freund hat jetzt plötzlich das und das zu mir
gesagt, soll ich ihm jetzt hier irgendwie auf diese oder jene Art und Weise
antworten und überhaupt will ich, dass er das macht, was ich will, wie kann ich ihn
dazu bringen? Das, wo wir früher Dr. Sommer anschreiben mussten. Genau, genau. Also,
wo ich mir einfach denke, Nummer eins, wenn du nicht verstanden hast, dass eine
echte, reale soziale Beziehung, insbesondere dann auch noch eine intime Beziehung zu
deinem Lebenspartner Gegebenenfalls komplexer ist, als das, was du aus einer JGPT
-Anwort rauskriegst, dann "I don't know, wie soll ich den überhaupt so weit aufklären,
dass er versteht, welche Komplexitätsgrade mit welchen Tools beantwortbar sind?" Also
ja, ich verstehe Simplifizierung, die Notwendigkeit, Einfachheit und Berechenbarkeit
herzustellen, aber es gibt Lebensbereiche, wo das im Prinzip systematisch ausgeschlossen
ist. Jetzt halte ich mal hart dagegen, gar nicht um dich zu ärgern, da meine
Erwartung wäre, dass die Antwort von Chat geht, bitte, in dem Beispiel, das du
gerade gebracht hast. Man freut halt, dass du das gesagt hast. Honest mal besser ist
als der Bullshit, den ich auf solche Fragen, als ich zwölf war, aus meiner Familie
gekriegt habe. Weil da kamen so Geschichten wie den aus Bombersheim, kannst du nicht
trauen, das ist alles Inzest, Rothaarige sind immer geil und so war also, da kam ja
auch nur so ein Quark. Ja ja, pass auf. Also wo die Frage sind, wo man die Latte
hinlegt. Das ist nicht der Anspruch, den ich habe. Es ist gar nicht der Anspruch zu
sagen, ist JetGPT besser als deine Oma oder ist JetGPT besser als irgendwie Dr.
Sommer. Der Anspruch ist der, den ich aufsetzen will, zu sagen, du hast
wahrscheinlich mit elf Jahren rausgefunden, dass deine Oma keinen validen Aussage oder
Wahrheitsanspruch auf die komplexen Fragen von Freundschaft und Beziehungswelt hat oder
vielleicht hast du es mit 14 rausgefunden, wenn du hast deinen ersten Freundin
hattest und dann hast du Oma oder Opa oder irgendjemand gefragt und die haben dann
eben sowas gesagt, so eine realitätsverkürzende Simplifizierung von Rothaarige, was auch
immer oder was dann etwas ausgelöst hat in deinem Gehirn, nämlich zu sagen, okay,
diese Antwort klingt etwas kürzt. Die klingt etwas simplifizierend. "Naja, vielleicht
muss ich mir mein eigenes Modell bauen." Das ist ja das, was das Gehirn die ganze
Zeit macht. Das Gehirn modelliert Zukunft. Der beste Predictor oder die beste
Predictionsmaschine ist nicht Chatchi -BT, die ist ein Gehirn. Und zwar deswegen, weil
sie so etwas wie Chatchi -BT als Hilfsmittel nutzt, dort, wo Komplexe vorher sagen,
erst mal aufgrund eigener empirischen Daten nicht so schnell möglich sind. Aber zu
verstehen, dass ChatGPT eben auch struggled, genau wie deine Oma, das hat die junge
Generation auch nicht vollständig geschnallt. Und da gibt es natürlich viele, viele
Ursachen. Eine davon being, dass wir immer mehr Sachen mit Technik machen, dass wir
komplett technikhörig geworden sind. Also ich meine, ich wache auf das erste, was ich
mache, ist mein Handy. Mein Handy sagt mir, was ich tun muss, mein Handy mir welche
Termine ich immer habe. Mein Handy sagt mir, jetzt halt bald darf ich dem Holger
vertrauen oder nicht, weil ich habe Jajibit über dich befragt. Nein, das habe ich
nicht gewonnen. Aber nee, weißte was ich meine. Also es ist Vertrauen der Technik
mittlerweile mehr als jedem anderen Mitmenschen oder uns selbst. Dieser letzte Aspekt
ist, glaube ich, der entscheidende. Ich möchte auch noch ein bisschen auf Intuition
zu sprechen kommen, auch deswegen, weil ich gestern mich noch ein bisschen beschäftigt
habe mit uralten Themen, insbesondere einem Buch von Hubert Dreifuss, einem
ausgesprochenen unterschätzten KI -Kritiker, und ich habe seinen Buch "Mind over
Machine" so ein bisschen quer gelesen, natürlich nicht alles gestern lösen können,
aber es ist ein Typ zum Beispiel, der auch komplett missverstanden wurde. Damals, als
das ganze KI -Thema aufgesetzt wurde, Dartmouth College, die Uranfänge und KI,
also Artificial Intelligence auch als Begriff geprägt wurde, oder Hubert Dreifuss sehr
verlacht und missverstanden, weil er auch aus einer ganz anderen Denkwelt kam. Er kam
aus einer kontinentaleuropäischen, phenomenologisch geprägten philosophischen Umgebung.
Und die ganze moderne, in Anführungsstrichen damals moderne KI -Welt, das waren
Ingenieurs getriebenes Denken, das war rein kann ich es bauen,
denken, dass das war Computer -Menschen, die sagt, alles lässt sich auf Computermodelle
verkürzen. Und das ist ja immer noch das Grundproblem, dass wir die Grundannahmen von
dem, was wir heute KI nennen, nicht verstanden haben, weil wir ja auch unser eigenes
Gehirn nicht verstehen. Immer noch nicht. Und das ist das Thema, wir reden über
Sachen wie Intelligenz, ohne es zu verstehen. Also finde ich immer wieder faszinierend
mit diesen neuronalen Netzen, also bin ich auch raus, was meine Kompetenz angehen
soll. Ich habe mir das Gefühl, wir haben etwas gebaut, das funktioniert, wir wissen
aber nicht so genau warum oder wie. Stimmt das? Zum Teil. Wir können natürlich
mathematisch durchaus erklären, wie Vektor -Maschinen funktionieren, wie du eine Vektor
-basierte Datenbank jetzt reinladen kannst in so ein Large -Language -Model und dann
halt irgendwie auch halbwegs verlässliche Antworten kriegst. Das können wir schon
erklären. Das Ganze, was dann irgendwann unerklärbar wird, ist, wenn das Ganze zu
groß wird, und ich sage mal Stichwort, das ganze Internet gefressen hat, gab es
jetzt irgendwie ja heute Morgen auch wieder einen tollen Post auf LinkedIn, ich weiß
nicht, ob dir das Schogoth -Meme etwas sagt. Das ist ja praktisch so ein bisschen
dieser medische Metapher dafür, dass wir im Prinzip so natenmonster gebaut haben.
Wir haben das ganze Internet durch die Datenfleischwolf getrieben und haben daran halt
im Prinzip diese large Language Models gebaut, die ja immer datenhungriger werden,
weil die Annahme ist, umso mehr desto besser, umso mehr desto gut. Du musst nur
noch mehr Daten mit noch mehr Hochleistungs -GPUs trainieren von Nvidia und dann
kommst du irgendwann zu AGI. Ich teile diese Annahme nicht, nichtsdestotrotz, um auf
dein Thema zurückzukommen. Die ganze Technologie ist natürlich nicht deterministisch.
Das heißt, es ist kein "if it is" in der Ansatz. Die Frage, die du jetzt stellst,
kann 700 verschiedene Antworten bekommen. Das heißt nicht, dass diese 700 verschiedenen
Antworten komplett unterschiedlich sind, aber sie werden doch so unterschiedlich sein,
dass du nicht genau erklären kannst und nicht auch nicht genau vorher sagen kannst,
welche Antwort du als nächstes bekommen wirst. Es sei denn du hast es natürlich
wiederum reduziert, deterministisch gemacht, indem du React -Modelle,
vectorbasierte Datenbanken dahinter geschaltet hast. Aber was will ich damit sagen? Die
beste Art und Weise, wie wir unsere eigene Intelligenz aktuell verstehen und auch ich
bin nicht der Neuro -Wissenschaftler, den du am Ende noch mal fragen solltest, weil
ich bin nur ein, sag ich mal, interessierter Hobby Neuro -Wissenschaftler, als
Psychologe interessiert mich das Gehirn natürlich. Aber kurze Side -Note, die
Neurowissenschaften haben über zehn Jahre gebraucht, um zu verstehen,
wie das gesamte Nervensystem von C .Elegance funktioniert. Und das ist ein absolut
primitiver Modell -Lebewesen. Das ist ein kleiner Wurm, der hat nur 300 + - Neuronen,
kann halt Griechen in Richtung von essen und kann halt irgendwie was vermeiden, was
er nicht so geil findet, wie ein echtes Lebewesen. Ein echtes Lebewesen. Das wird
immer wieder in der Neurowissenschaften als Modelllebewesen verwendet. Einfach deswegen,
weil es natürlich einfacher ein komplettes Mapping von 300 Neuronen vorzunehmen, als
von, wir Menschen haben zwischen 80 und 100 Milliarden Neuron, das ein bisschen
komplexer. Also, wir sagen Komplexität resultiert aus Quantität, aber noch viel mehr
aus Qualität. Und da kommen wir nämlich auf die Tatsache, dass unser Gerirren als
neuroplastisch lebendes Organ sich ständig verändert. Ein in Silico existierendes Large
Language Model, aber nicht. Das kannst du zwar neu trainieren und wieder neu
anpassen, aber dazwischen liegen zeitliche Abstände, während bei uns das in Echtzeit
passiert. Und anderer Unterschied auch dernoch ist, Wir haben es geschafft, neuronale
Netzwerke digital zu emulieren, also nachzubilden. Aber was wir nicht geschafft haben,
ist den elektrochemischen Aspekt. Also entsprechend ist speziell alle Sachen, die bei
uns an der Synapse, chemisch und hormonell auch noch mit beeinflusst werden.
Das hat nicht geschafft nachzubilden und verstehen es auch nicht, inklusive natürlich
der ganzen Teilaspekt, die an unseren Umgehörn. So, jetzt fasse ich das alles nochmal
zusammen, ganz kurz gesagt, unser bestes Modell vom Gehirn sind distribuierte
Netzwerke, die dezentral zu ihren eigenen Interpretationen kommen und diese
Interpretationen werden dann in einem großen Netzwerk konsolidiert, integriert und auf
einem bestmöglichen Deutungsmuster zurückgeführt. Also im Sinne von ein prädizierendes
Deutungsmuster, weil der Grund der evolutionäre Nutzwert des Gehirns ist natürlich die
Vorhersage der Zukunft, um unsere Überlebenswahrscheinlichkeit zu erhöhen. Sonst hätten
wir kein Gehirn, sonst wären wir dieser Wurm geblieben. Das heißt, unser Vorteil
dieses Gehirn zu haben, ist natürlich, dass unser Überlebenswert dadurch gesteigert
wurde. Wichtige Frage ist aber die, warum sind wir nicht intelligenter, als wir sind?
Warum hat uns die Evolution nicht intelligenter gemacht? Hätte sie machen können? Und
genau An dem Punkt unterscheidet sich das, was wir gerade machen mit Large Language
Models und KI zu dem, was die Natur gemacht hat. Natur macht nämlich nichts ohne
Grund. Es gibt immer ein reales Validierungskriterium und das heißt überleben.
Genau dieses reale Validierungskriterium hast du eben in der KI -Welt in Silico nicht.
Zwei Gedanken kurz. Das eine ist, es gibt ja Statistiken, die auch sagen, ab IQ
120, 30, 140, wirst du, je nachdem wie man es misst, unerfolgreicher im Leben,
also dass dann die Intelligenz hält dich ja dann vom Erfolg ab, also wenn du
anguckst. Mein Problem momentan zu wusstest, der erstmal Erfolg definieren. Ja, meine
ich ja. Er wollte gerade hin. Also das war jetzt geschäftlicher finanzieller Erfolg,
sowas zum Beispiel. Da kacken wir dann ab mit 140 Ukupunken extrem ab, weil dann
sind Geschichten mit Risikobereitschaft zum Beispiel. Geht extrem runter, die ich zu
einem gewissen Teil aber brauche und auf der anderen Seite, wenn du bei den ECO
-Punkten dann unterhalb der 80 bist, dann bringen dich andere Sachen um. Das war das
eine. Das zweite, was ich kurz reinwerfen wollte, weil du gesagt hast, wir haben das
ganze Internet genommen und in diese Dinge reingestopft. Ich habe heute Morgen Zahlen
gesehen, die sind auch schon wieder ein Jahr alt. Und zwar ging es da um
Statistiken von Webseiten und das Verhältnis von Menschenbesuchern auf Webseiten und
Scrapern, also irgendwelchen Google Crawlern und so weiter, die auf die Webseite
ahren, also das ist jetzt von:Verhältnis Google zu Mensch 2 zu 1. Also zwei Google -Besuche für jeden Menschen auf
der Webseite. Vor einem Jahr, als diese Statistik gemacht wurde, war das Verhältnis
bei Google 18 zu 1. Also für jeden echten Menschen, der auf deiner Webseite kommt,
kommt Google 18 mal vorbei und liest die Webseite. Wow, Bei OpenAI ist es so, im
Dezember 23 war das Verhältnis 250 zu 1, OpenAI ist 250 mal auf der Webseite
vorbeigekommen, bevor ein Mensch vorbeigekommen ist. Vor einem Jahr war das Verhältnis
1 .500 zu 1. Bei Anthropic war es im Dezember 23 6 .000 zu 1 und vor einem Jahr
war es 60 .000 zu Wow. Epic Crawler kommen 60 .000 Mal an einer Webseite vorbei,
bevor ein echter Mensch vorbeikommt. Wow, impressive. Also brutal, ne? Jetzt kann man
erstmal ganz kurz die ökologische Empörung aufmachen und sagen, das kostet ja auch
die ein oder andere Windkraftanlagenumdrehung, die ganze Nummer, und das dann dafür,
dass ich mir hier in meiner Bubble so ein Papagei auf LSD züchte quasi. Ja, gut,
ich meine, man muss sich immer noch die Frage stellen, bevor ich jetzt die, du
hattest jetzt auch das Nachhaltigkeits - oder Energiethema aufgeworfen. Das muss man
natürlich auch noch mal kritisch beleuchten, mit Blick auf, wenn du jetzt, sag ich
mal, statt deinen Papagei auf LSD zu benutzen, zwei Stunden oder acht Stunden im
Internet verbracht hättest, um dort rum zu surfen und die 150 Webseiten abzusurfen,
bis du die Antwort gefunden hättest, wäre damit natürlich auch eine gewisse, sage ich
mal, Produktivitätsnachteil entstanden, beziehungsweise du, der du in den 8 Stunden ja
auch essen willst und rumfahren musst, um dein Leben zu erhalten etc. hättest ja
auch Energie verbraucht. Das muss man auch noch ein bisschen kritisch gegenbeleuchten
mit den Opportunitätskosten, aber Grundsätzlich hast du natürlich recht und wenn du
die Landschaft anschaust, rund um den KI Hype, ich nenne jetzt erst mal Hype,
kann man später noch beleuchten, ob sein Hype ist oder nicht, dann ist das natürlich
eine Kernaussage, soweit man an das Weiterbestehen der Technologie erlaubt,
dass der Energiebedarf massiv ansteigen wird in den nächsten Jahren und deswegen
natürlich auch
Das ist kein Investment -Advice übrigens, will's gleich machen. Genau, das können wir
nicht machen. Jetzt ist es ja so, ich habe dir diesen Text davor gelesen, den mein
Chat -Gipatin mir produziert hat. Das ist jetzt halt so, ich habe das 4 ,5 oder 2
Jahre lang trainiert und beigebracht, wie ich denke. Das hat gelernt, welche Arten
von Antworten ich akzeptiere und welche Arten von Antworten ich nicht akzeptiere und
wo ich nochmal nachfrage. Ich würde in meinem rudimentären Verständnis der Technologie
unterstellen, wenn jemand anderes dieselbe Frage in sein trainiertes LLM reingebt oder
in ein nicht, also die sind alle trainiert, aber ein nicht Customized quasi, würden
da mit unter sehr andere Antworten rauskommen, richtig? Das heißt, ich habe mir hier
auch durchaus meinen Echo Chamber geschaffen, der mir sehr gefällige Antworten gibt,
die meine Art zu denken, meine Werte bis hin zu meiner politischen Ausrichtung
passen, oder? Na ja, gut, die Frage ist natürlich erst mal Interaktions, Volumen,
Interaktions -Tiefe. Es hängt ja immer davon ab, wie viel oder was weiß dein
Chatshipity über dich? Wie viel hast du mit ihm gemacht? Je mehr du mit ihm machst,
umso mehr wird es natürlich sich anpassen oder sich daran lernen, was für dich die
richtige Antwort ist. Der entscheidende Aspekt ist natürlich das, was wir gerade noch
nicht so wirklich sehen, was im Hintergrund passiert. Und das ist natürlich das, was
eigentlich immer das Geniale ist, ein Big Tech. Ich mach mal den Vergleich zu Mr.
Zuckerberg und erzähl gleich nochmal so ein bisschen, was ich auch über seinen KI
-Ansatz denke, der dir die geniale Idee hatte zu sagen, mit Facebook mache ich ein
soziales Netzwerk auf, hurra, hurra, jeder kann mit jedem sprechen, sich vernetzen,
Freunde auf der ganzen Welt treffen oder behalten. Mittlerweile ist es natürlich nicht
mehr so erfolgreich dieses Netzwerk, aber das Spannende ist, sind ja die Daten im
Hintergrund, also die Interaktionsdaten. Das, was man von dem Nutzer lernt, was dann
natürlich dazu geführt hat, zu dem genialen Konzept für Zuckerberg, Facebook als
Advertising -Plattform nutzen zu können. Also zu wissen, bis zu der Minute,
in der jemand eine neue Beziehung beginnt, das prädizieren zu können, zu sagen,
die Art und Weise, wie du mit dieser neuen Person interagierst, sprich dafür,
dass ihr ab Minute X in einer Beziehung sein werdet. Und deswegen betrachte ich dich
jetzt nicht mehr als Single, sondern als in einer Beziehung bestehend. Was auch
immer. Und targette dich deswegen auch anders. Und das jetzt mal auf ChatGPT -Niveau,
weil wir haben ja doch jetzt schon einige hundert Millionen oder, glaube ich, sogar
eine Milliarde Nutzer von Chatchivity, ist natürlich ein ganz anderes Potenzial. Das
heißt, wenn du die Sache umdrehst und sagst, okay, realiter gibt es noch keine
künstliche Intelligenz, es gibt natürlich auch keine künstliche Superintelligenz oder
Artificial General Intelligence, aber aus dem Nutzungsverhalten der ganzen Nutzer,
die die Technologie nutzen, könnte man natürlich Rückschlüsse ziehen auf Verhalten und
Lösungen zu Verhaltensproblemen, die der Nutzer selber noch gar nicht erahnt. An dem
Punkt von, wie hieß es denn, gab es noch dieses Buch "Quality Land", wo der Typ zu
Hause sitzt und dann irgendwie eine Drohne an der Balkon -Tür klopft und bringt ihm
irgendwie ein Pornoheftchen oder Bier usw. Und dann sagt er, warum denn?
Und dann sagt die Drohne, du wirst gleich sehr traurig sein, weil deine Freundin
gleich mit dir Schluss macht und dann kommt der Anruf und sie macht Schluss mit ihm
und er hat halt schon 6 Backbier in der Hand dafür. Das ist doch perfekt. Das
erinnert mich auch total an, kennst du die Supermarquette Tesco in England? Die haben
eine Partnerschaft mit einer Firma, die als Dammhambi und die haben diese Tesco -Club
-Karte eingeführt, also auch schon in wie Jahrzehnte herrn. Und da kam dann irgendwann
mal eine personalisierte Werbung ins Haus zu einer Familie mit einer jungen Tochter
für Schwangeren -Geschichten. Und dann hat sich der Vater beschwert gesagt,
wie könnt ihr nur? Meine Tochter, eine züchtiges Mädchen, ist doch nicht schwanger,
wie kommt ihr drauf? Und es war natürlich, wie es kommen musste. Sie war tatsächlich
schwanger, er wusste es nur noch nicht. Und an dem Einkaufsverhalten hat dann haben
wir ohne das selber zu steuern. Sie hat irgendwelche sauren Gurken und Schokolade
gekauft oder Schokolade gekauft oder was auch immer, was halt die schwangere Frauen
kaufen. Und in die Richtung geht es natürlich ganz klar und deutlich. Insbesondere
dann, wenn wir, wie du vorgesagt hast, ChatGPT als Lebensassistenten für alle
Lebensumstände verwenden und aus diesem Wissen heraus im Hintergrund Verhaltensmuster
entstehen und Vorhersagen möglich sind, von denen wir gar nicht wissen, dass sie
möglich sein könnten. Aber bei all den Sachen ist es doch auch immer eine Abwägung
zwischen Komfort und Homogenisierung. Also was ich damit meine ist,
war schon zehn Jahre her, war ich auf dem Marketing Seminar, war einen guten Karl
Kratz und der Kalle hat damals schon gesagt, dieses ganze Seeo Zeug, das wird völlig
überflüssig, weil alles ab Position 2 wird irrelevant, weil das wird dann so, ich
hatte damals einen BMW oder so was, also mit so eingebautem Assistenzlötsin und Und
dann hatte ich so eine Situation, ich mir irgendwas übers Hemd gekippt habe und hab
dann da auf den Knopf gedrückt. Dann war ein Mensch auf der anderen Seite sagt, ja,
was ist denn los? Ich hab mir glaube, das ist übers Hemd gekippt. Okay, ich führe
sie zur nächsten Reinigung. Und da ist dann völlig egal, wie viele Reinigungen in
meinem Darmstall, wie viele Reinigungen es gibt. Was mag ich? Das ist einfach nur
die nächste, ne? So, das was da ist. Bei JetGPT auch. Ich suche das und das, was
soll ich kaufen. Ich finde das ja total abgedreht. Aber das scheinen ja viele Leute
schon so zu tun, ne? Und auf der Ein Seite, das ist ja sehr, sehr komfortabel und
ich meine, das ist ja auch sehr, also wenn man jetzt mal Richtung Medizin geht,
irgendwie predictive und hingeht und sagt so und so und jetzt erwarten wir, dass das
passiert und wir können prämtiv Dinge tun. Das ist eine coole Idee. Also erstens
wird es sehr anfällig, weil liegt das Fieh daneben, da habe ich ein Problem. Und
auf der anderen Seite, es nimmt halt völlig die Pluralität raus, weil immer nur der
Assistent gibt dir halt eine Antwort und sagt, das ist die Antwort. Ja, jetzt kommen
wir genau auf das zurück, was ich vorher versucht habe, anzusprechen und
wahrscheinlich nicht wirklich gut artikuliert habe. Die Multidimensionalität der Realität
und dieses Kollabieren auf eine zweidimensionale, simple Antwort.
Ich denke, was vielen noch nicht klar ist, dass auch das bereits eine
Differenzierungsfähigkeit erfordert, nämlich zu sagen, es gibt Aspekte in deinem Leben,
wo einfach, komfortabel, effizient, gar kein Problem ist. Ich sage mal so wie du
jetzt mit dem Reinigungszweigspiel vielleicht möchtest du nicht zwei Stunden damit
verbringen die beste Reinigung in Darmstadt zu finden anhand von Reviews zu
analysieren und das nochmal zu verifizieren in tiefen Interviews. Das ist vielleicht
gar nicht notwendig. Genauso wenig ist es notwendig, dass du jetzt musst du immer
bei kleinteiligen Käufen im Internet das absolut beste Angebot finden? Nein,
musst du auch nicht. Vielleicht zahlst du manchmal irgendwie 20 % zu viel oder
vielleicht zahlst du manchmal ein paar Euro mehr dafür, dass du halt weißt, okay,
das Zeug kommt an und da hast du schon mal gekauft und warst zufriedenfein. Wo ich
meine Probleme habe ist, dass eben, was ich vorgesagt habe, dass junge Leute dann
auch nicht mehr verstehen und auch gar nicht mehr, sag ich mal, vielleicht verstehen
wollen, dass bestimmte Entscheidungen Aufgrund ihrer Komplexität und ihrer weitreichenden
Implikationen für den Rest eines Lebens, nicht solche zweidimensional verflachbaren
Entscheidungen rechtfertigen, dass es da nicht darum geht, die nächstmögliche beste
Antwort zu finden. Ich sage mal, der Vergleich ist für mich immer, ich kaufe vier
neue Winterreifen auf Amazon und ich suche mir eine neue Freundin auf Amazon.
Wenn Amazon zum Beispiel jetzt anfangen würde auch Partnervermittlungen anzubieten, was
durchaus möglich wäre, weil die Daten über die ganzen Persönlichkeitsmuster von den
Verbrauchern haben Sie wahrscheinlich, würde ich das trotzdem nicht machen. Warum? Weil
für mich die menschliche Komplexität eben ein Faktor tausend zu hoch ist,
um sie auf so eine zweidimensionalizierte Verflachen zu können. Und weil ich vom
Prinzip her das auch völlig Ja, noch nicht mal ethisch, sondern ästhetisch unanständig
finde. Ich finde es ästhetisch ekelhaft, zu sagen, ich presse einen Menschen in ein
zweidimensionales
Komplexitätsraster, Reduktionsraster und zu sagen, hier, du bist ein C4 -Mensch,
deswegen sollte ich dich verkuppeln mit einer D3 -Dame, was aber machen? Wobei das
passiert. Also ich meine, ich habe auch nicht Elite -Partner und weiß nicht, wie die
anderen heißen, ich kriege eine Bewerbung für Sea -Date, aber ich datgucke auf
SportEis. Ich glaub, die machen was anderes. Das wird ja gemacht. Da wirst du ja
geprofilt und dann hast du irgendwie ein paar Datenpunkte. Das ist extrovertiert,
introvertiert und Hobbies und so weiter. Aber der Kram funktioniert ja
überdurchschnittlich gut. Also diese algorithmisierten Matchmaking -Geschichten haben ja
eine längere Haltbarkeit in der Beziehung als ich reiß dich an der Bar auf, weil
ich auf Blond stehen. Also erst mal, sag mal, musst du ganz ganz vorsichtig sein
und zu sagen dazu musstest du ja empirisch viel viel mehr Daten und komparative
Daten haben und Längsschnittstudien machen. Also diese Datenlage ist extrem dünn und
auch sage ich mal im Vergleich dazu wiederum, was ist Erfolg? Wie definierst du
Erfolg? Beziehungshaltbarkeit? Seriously? Also ich meine, das macht so einen Riesenfass
an Fragen auf, was soziales Miteinander überhaupt soll, geht es darum, dass wir uns
alle gegenseitig irgendwo in kleinen Kästchen wiederfinden und in einer Kästchenwelt in
irgendwelchen Vorstätten leben und ein Vorstadt -Lebensmodell ausleben, was sich dann
vielleicht da irgendjemand als Normalität kennzeichnet oder geht es um etwas viel
tiefer gehen ist, dass wir tatsächlich komplex in Lebewesen sind und vielleicht auch
durch emotionale Zustände gehen müssen, um uns selbst zu finden, was ja auch heißt,
dass du auch nicht nur hoch sondern tiefst hast. Und dieses, ich kenn's aus der
Psychologie oder Sozialpsychologie und Wirtschaftspsychologie, da heißt das "Szenen
sozialen Glücks". Das heißt, die Annahme, dass dann natürlich auch Werbung, die ein
Lebensmodell verkauft, in dem alles immer super, alles immer cool ist, alles immer
weichgespült und Lenore verkauft ihr die glückliche Familie. Und da sitzen sie alle
am Tisch und trinken ihren Ohrsaft, den sie bei Penny und Aldi gekauft haben.
Und dann weiß was ich meine, also die Annahme, dass Glück käuflich oder generierbar
ist. Da fängt meine Grundkritik an und scheitert meine Möglichkeit, mich in so ein
verflachtes Lebensmodell überführen zu lassen. Das kann ich gedanklich nicht, weil da
streuben sich meine intellektuellen Nackenhaare, bei dem versuche, mich in so ein
Korsett überhaupt spannen zu lassen. Also ich sage mal so, derjenige, der sagt, ja,
ich glaube dir, liebe C -Date oder was auch immer, Partnervermittlung, Elite -Partner,
ich bin auch ein Elite -Mensch, deswegen verdiene ich einen Elite -Partner. Der Name
ist ja schon grauselig. Wiederwärtig und ich gebe dir hier meine 50 Antworten auf
deine 50 Fragen und dann bitte vermittle mir den Partner zu mir, in dem ich dann
in diesem Elite -Lebensmodell leben kann. Das Wander wäre ja dann sogar tatsächlich
mal zu untersuchen, wie viele von diesen Beziehungen dann erfolgreich, wie wir mit
uns definiert sind, weil sie so eine aufgeladene selbstwürfelnde Prophezeiung sind,
dass man hingeht und sagt, diese Beziehung wird richtig gut. Früher wär's der Herr
Bischoff selbst hat die Braut für dich ausgesucht, wäre im gewesen und der lehnt es
her. Und heute ist es dann, das wird bestimmt gut, weil ein KI -neuronales
Supercomputer -Netz die Begier für dich gefunden ist. Ja, ja, ja, es ist ein guter
Punkt, bringt mich so ein Buch von einer amerikanischen Psychologe in China, Eingar,
die hat sich mit "Choice" beschäftigt, finde ich super spannend. Und auch da ist
wieder die Grundannahme, wir treffen eine Wahl und verlassen uns jetzt natürlich mehr
auf Technologie, weil Technologie die bestmögliche Antwort auf eine
Entscheidungssituation lieber die komplex ist, aber vielleicht geht es gar nicht um
die Entscheidung, sondern vielleicht geht es um die Akzeptanz der Komplexität als
solche. Ich komme nämlich auf das zurück, was die China -Ingada analysiert hat. Wir
haben nämlich die Glücklichkeit von Beziehungen im Westen und im Osten analysiert. Das
heißt, im westlichen Lebensräumen geht es ja darum, in diesen Kulturen geht es darum,
dass das romantische Glücksmodell verwendet wird. Also ich finde Traumpartner,
bin total verliebt. Deswegen heirate ich Traumpartner und lebe glücklich in aller
Ewigkeit. Und in anderen eher in östlichen Lebenskontexten ist ja so zum Beispiel
immer noch vermittelte Beziehung, vermittelte Hochzeit, also vermittelte Ehe. Ich kenne
die Person gar nicht, wie ich dann heirate. Ich muss sie erst mal kennen und lieben
lernen und schätzen lernen und am Anfang habe ich keine Erwartung, im besten Fall
die, dass es nicht ein totaler Krapfen ist und irgendwann fange ich an, da eine
Freundschaft zu schließen, aus der Freundschaft wird dann mehr und dann irgendwann
liebt man sich. Und überraschendes Ergebnis langfristig gesehen, sind diese östlichen
Beziehungen stabiler, erfolgreicher, glücklicher als bei uns. Natürlich, weil du genau
das passiert, was du gesagt hast. Ich komme mit übertriebenen, romantisierten Disney
-Erwartungen in die Beziehung rein. Traumpartner muss das Beste vom Besten sein, weil,
wie gesagt, die Elite Partner -Plattform hat es ja für mich gefunden oder JetGPT hat
es analysiert und passt perfekt. Und dann Überraschung, Überraschung. Menschen sind
doch komplizierter und das Leben kann einem ab und zu ein Bein stellen. Es kann
immer was passieren, was unerwartet ist. Also da würde ich es dran festmachen, dass
ich jetzt mal diese Polarität nehme, die du da aufgemacht hast und sage, dass ich
in der Welt der arrangierten Hochzeiten halt schon mit der Grundhaltung reingehe, das
wird Arbeit. Genau. Also da ist jemand, den ich nicht kenne, mein Job ist jetzt die
Sachen zu finden, die mir gefallen, welche zu produzieren, die dem gefallen und
irgendwie das, wo es hakt, zum Fliegen zu kriegen, während ich in der anderen Welt
ja erst mal mit dieser großen Hoffen reingebe, vielleicht ist es total geil, wir
sind die perfekten Paten und es wird überhaupt keine Arbeit, sondern es wird so wie
in dieser Szene als Schreck mit seiner Orgfrau über die grüne Wiese hoppselt und
dann ist es immer erstmal eine große Enttäuschung zu sagen, Shit, es ist doch Arbeit
und da steigt ja die Hälfte auch schon aus, weil es dann schon zu spät ist, wenn
man realisiert hat, dass es Arbeit. Umgekehrt, allerdings finde ich, also wenn ich
jetzt mal zusammenfasse, was ich von die höre Tom, dann ist es ja irgendwie der
Aufruf zum kritischen Auseinandersetzen mit diesem, was wir so KI nennen, LLM
-Schnickschnack, sich überlegen, wo verwende ich es, wo verwende ich es nicht und vor
all Dingen eben, das hat mich total getriggert und genervt, da deine Akzeptanz der
Komplexität, weil ich sitze ja hier und bin ja völlig überfordert. Ich bin hier
überfordert, weil hier ist zu viel und hier ist zu komplex und hier ist zu
kompliziert, ohne jetzt der Knuck -Schleißer -Rutsch auf den Unterschied zu gehen, aber
ich bin ja einfach dauerüberfordert. Und jetzt kommt einer um die Ecke, hier Kollege
Altmann und sagt 899 im Monat und ich stelle dir hier ein Freund zur Seite, das
ist wie diese Assistent bei Iron Man, das ist total geil, hat immer eine Antwort
und vereinfacht die Welt für dich auf viele verschiedene Arten. Also es ist ja
exakte Halsbringer, den ich brauche. Und du willst mir das jetzt malig machen und
das auch noch mit Kompetenz aufgeladen, das finde ich ein bisschen gemein muss ich
sagen. Ich will niemanden irgendwas malig machen, ich verstehe natürlich absolut unsere
Bedürfnis nach Lebensvereinfachung und in vielen, vielen Bereichen funktioniert das ja
auch hervorragender. Ich sag mal so, wenn ich am Abend müde auf der Couch schliege
und ich brauche jetzt nur 20 Minuten, halbe Stunde irgendeinen unterhaltenen Content,
damit ich dahin dämmer und einschlafe. Es ist kein Problem, dass Netflix jetzt mit
seinem Recommendation -Engine mir da vorschlägt. Guck dir mal hier diese Schnulze an.
Du hast immer solche Romanzen gerne geguckt, lieber Holger, ich habe hier genau die
richtige für dich gefunden, guck mal, dazu kannst du gut einschlafen. Ob du das
jetzt guckst oder ob du irgendwie deiner Waschmaschine bei der Bundwäsche zuschaust,
der Effekt ist derselbe. Damit habe ich gar kein Problem, dass es Kontexte gibt, wo
ich schnell und einfach irgendeine Lösung haben will. Womit ich ein Problem habe, ist
das Prinzip schnell und einfach auf alles in deinem Leben anwenden zu wollen und
überhaupt zu denken, dass du es tun solltest. und zwar deswegen und jetzt kommen wir
auf den Anfang unseres Gesprächs zurück auf geklärtes Eigeninteresse. Die Welt ist ja,
sie ist kompliziert, sie ist aber auch reichhaltig und hat unglaublich viel zu
bieten, unglaublich viele Möglichkeiten zu lernen, dich weiterzuentwickeln. Was tust du,
wenn du sagst, du möchtest dein ganzes Leben durchstrukturiert, vorstrukturiert,
vorgekaut, durch JetGPT auf dem digitalen Silbertablett als Entscheidungsmuster
abgeliefert bekommen. Was du damit tust, ist, du nimmst dir diese Möglichkeit zu
lernen. Du nimmst dir die Möglichkeit zu wachsen und du nimmst dir die Möglichkeit,
positiv Komplexität zu erleben, um daraus zu lernen. Das nimmst du dir. Ich verstehe,
warum du das tust, weil Lernen ist anstrengend, es ist inkonvenient. Es ist nicht
etwas, was um die Ecke kommt und sagt, ich habe es schon mal für dich hier
vorgebaut. Es ist nicht der Roboter, der dir das Mittagessen bringt und sagt, hier
lieber Holger, ich weiß du, dir liebst Pommes mit Ketchup und Steak und ich habe es
schon mal für dich gekocht. Das ist es nicht. Warum soll es das aber nicht sein?
Und das ist die entscheidende Frage. Wenn du alles an Maschinen und Roboter und
JETGPT und KI auslagerst, dann nimmst du dir im Prinzip die Möglichkeit, zu der
Person zu werden, die du werden könntest. Also das heißt, wir sind an einem
entscheidenden, auf Englisch würde ich sagen, Inflection Point angekommen, evolutionär
gesehen, wo wir jetzt in Anführungsstrichen so intelligent geworden sind als Homo
Sapiens, als Spezies, dass wir uns unsere eigene Intelligenz abtrainieren können, dass
wir sie nicht mehr gebrauchen müssen. Und jetzt ist die entscheidende Frage, willst
du zu einem Endbenutzer werden von einer Intelligenz, die jemand anderes für dich
vorpräpariert, als Entscheidungsmuster in deinem Leben und damit ja selber zu einem
vorstrukturierten Individuum werden, willst du das? Oder willst du weiterhin Autonomie
über dein Leben besitzen? Und das ist eine entscheidende Grundfrage, der wir uns
jetzt, jeder von uns, wir müssen diese Frage beantworten. Meine Befürchtung ist, dass
ein ganz großer Prozentsatz von Menschen sich gegen Autonomie entscheiden wird, weil
Autonomie Kraft kostet und anstrengend ist und Schmerzen bringt und Abwägungen
erfordert, die viele Leute nicht mehr selbst stemmen wollen. Ich muss mir daran
denken, ich habe mehrere Konflikte mit der vorhergehenden Generation, aber einer kommt
immer sehr, sehr raus. Ich wohne ja hier in der Nähe von Frankfurt und hier ist es
Teil unserer Kultur hier im Rhein -Main -Gebiet, ist das jemanden zum Flughafen fahren.
Also es total, Wir hatten es gerade wieder, dass meine Schwiegereltern nach Malle
geflogen sind. Und das heißt, die kommen dann zu uns, stellen das Auto ab und wir
fahren sie dann zum Flughafen. Und was mache ich? Was macht meine Generation? Was
macht meine Frau? Wir steigen ins Auto, natürlich wissen wir, wo der Flughafen ist.
Wir wissen, wie man da hinkommt. Aber wir geben es automatisch bei Google Maps ein,
weil im Zweifelsfall weiß Google, wo es eine Baustelle, wo es einen Unfall, wo es
staut sich gerade und gibt uns automatisch, wie man hinfährt, außerdem klickt man die
Geschwindigkeitswarnung auch nur wenn es nach wie mit läuft. Jedes mal wenn ich hier
mit jemandem Ü60 ins Auto steige, dann fährt es jetzt da vorne rechts und dann
hinten links am Frankfurter Kreuz, dann hinten da rum und da wendet da über die
Spange fest, also die sind autonome, wir sind erst mal im Arsch, wenn Google Maps
weg ist, ist mir völlig klar. Aber in 98 von 100 Fällen fahren wir behaupte ich
besser damit, entweder weil wir uns Energieaufwand sparen, wir sind weniger gestresst,
wir denken ich tu mal nach, ruhig hinfahren, Wir fahren halt hin, was auch noch
sagt, und wir vermeiden Staus und diesen ganzen Kram. Also ich sage mal, die alten
Leute müssten ja jetzt noch Verkehrsfunk hören und den Abgleichen und den Punkt
abpassen, dass im 5 vor halb hören, dass da gerade sich was staut, damit sie es
umfahren können. Das wird mir alles abgenommen auf der anderen Seite. In zwei von
100 Fällen stehe ich halt auch dank Google völlig in der Pampa und denkt mir, wir
hatten da wieder gekifft ein Palo Alto, dass ich hier auf dem Feldweg stehe. Das
ist ja so ein bisschen der Effekt und ein bisschen die Abwägung. Und jetzt mal ganz
konstruktiv. Was ist denn deine Empfehlung? Was empfiehlst du uns denn? Wie gehen wir
denn? Weil, offensichtlich bist du ja nicht kategorisch gegen KI, ne? Also, das finde
ich ja auch ehrlicherweise immer ein bisschen albern. Ich muss dann immer denken,
hier, als die Autos kamen, natürlich kamen die Autos auf und das war ein bisschen
gefährlich, weil am Anfang sind die irgendwie ohne Bremsen und ohne Blinker und alles
gefahren. Und dann hat irgendjemand gesagt, das ist gefährlich ohne Bremsen und ohne
so. Und dann die Pferde züchter und haben gesagt, ja, ja, deswegen sollten wir Autos
verbieten, weil Autos sind schlecht, kauft mehr Pferde. Da ist hier ganz viele KI
-Kritiker in Anfangszeichen heute, die einfach schlicht weg, richtigerweise verstehen,
dass ihr Job einfach nicht mehr existieren wird in drei Jahren und dann jetzt noch
versuchen, so ein bisschen den Überlebenskampf zu kämpfen, das er nicht aufgeben soll.
Also Gruß geht raus in alle Marketingtexte da draußen, die man linked in Feed mit
ihrem überflüssigen Überlebenskampf vollstopfen. Was rätst du uns denn, konstruktiv? Wie
sollten wir damit umgehen? Ich würde das festmachen, an dem Wort "Erfahrung" sammeln
oder bei dem Auto -Beispiel zu bleiben. Ich würde es selbst erfahren und zwar so oft
und so intensiv wie möglich. Ich habe ja vor ein paar Wochen so einen ganzen Tag
ohne Strom erlebt, immer kompletter Blackout. Freilich oder unfreiwillig? Unfreiwillig.
Hat auch in der ganze Albinsel betroffen. Erstmal war natürlich auch
Verschwörungstheorien, war das Hacking, hat da irgendjemand, irgendwie jetzt Terroristen,
muss den Strom abgedreht. Strom ist eigentlich ein supergeiles Beispiel für, was
Technologie freischalten kann, positiv, aber auch, wo wir abhängig sind, weil sobald
kein Strom, dann kein Internet, wenn kein Internet, auch keine KI und alles andere
natürlich nicht, kein Google Maps, kein gar nichts. Es geht noch viel weiter, kein
Strom, Strom, keine Paymentsystems. Du kannst nicht mehr mit Karte zahlen. So,
plötzlich musste Bargeld haben. Wenn dir kein Bargeld hat, kann kaufen, kann essen,
kann nix. Als kannst du natürlich lachen über Leute, die noch mit Bargeld rumlaufen.
So, an dem Tag hatte ich tatsächlich sehr wenig Bargeld, musste mir genau überlegen,
willst du Brötchen kaufen? Willst du was zu trinken kaufen? Wie lang wird der
Blackout noch dauern? Wenn das jetzt nochmal irgendwie 48 Stunden dauert, irgendwann
hast du Hunger, gut hast du noch ein paar Dosen im Haus, die kannst du noch
aufessen, aber irgendwann musst du wieder was zu essen kaufen. Deswegen sagt man auch
so immer, die Zivilisation hat eine halbwärtszeit von 48 Stunden. Dann fangen nämlich
die ersten Leute an, irgendwie in Geschäfte einzubrechen und sich natürlich irgendwie
das zu holen, was sie brauchen, zum Überleben. Um noch das zurückzukommen, was du
sagst, ich will natürlich nicht zurück auf die Bäume oder in die Höhle. Du verdienst
auch dein Geld, damit konfliktive Dinge mit KI zu machen. Natürlich. Natürlich. Ich
gehe davon aus, genauso wie Strom eine Selbstverständlichkeit geworden ist, ist das
Internet eine Selbstverständlichkeit geworden, so wird auch KI eine
Selbstverständlichkeit werden. Aber heißt nicht, dass für einen sich das Denken
auszulagern, das sollte nicht zur Selbstverständlichkeit werden. Das heißt, sag ich mal
so, wenn du in eine neue Stadt kommst und du erfährst dir diese neue Stadt, indem
du da rumläufst, mit dem Auto rumfährst, mit dem öffentlichen rumfährst, irgendwann
entwickelt sich in deinem Kopf da eine mentale Landkarte dazu. Du erfährst dir diese
Stadt. Heißt im Zweifel, selbst wenn ich dir dein Handy wegnehme, findest du den Weg
wieder zurück. Von Punkt B, wo du schon öfters warst, zu Punkt A, wo du zu Hause
bist oder nicht sicher für ist. Und genauso sollten wir eine mentale Landkarte haben
für alle kognitiven Herausforderungen im Leben, die relevant sind, die
überlebensrelevant sind und die lernrelevant sind. Deswegen sage ich, genauso soll man
mit KI auch umgehen. Natürlich nutzt du das Zeug, wo es hilfreich ist und convenient
ist, aber du solltest genau wissen, wie der Weg von A nach B geführt hat. Wie bist
du da hingekommen? Wenn KI nicht da wäre, wie würdest du es ohne KI machen? Woran
erkennst du, dass die Antwort von KI einen gewissen Nutzwert und eine
Richtigkeitswahrscheinlichkeit hat. Diese ganzen Markierungen auf deiner kognitiven
Landkarte, die müssen weiterhin existieren. Wenn die existieren, kein Problem. Nutzt
KI. Ey, klar. Ey, du komm schneller zum Ziel. Warum nicht? Genauso wie du Google
Maps, GPS benutzt. Natürlich brauchst du nicht jede Navigation manuell machen und mit
der realen physischen Karte rumlaufen. Aber du musst auch ein Grundgefühl haben, was
ja natürlich auch passiert. Du gibst was ein und dann steht da drei Stunden und du
fährst die falsche Himmelsrichtung und dann zu verstehen, hier ist was schiefgegangen
und halt nicht hinzufahren, das ist auch das Problem. Genau, ich sage mal so, das
ist ein Beispiel, was mir neulich wieder gekommen ist, weil ich mit jemandem
gesprochen habe, der mich an die ersten Browser erinnert hat, da gab's einen Netscape
-Navigator. Ja, ich erinnere mich, 4 .5. Genau. Und ich finde eigentlich Navigator
total geil, weil das immer noch impliziert hat, dass du dieses große Meer des
Wissens navigierst, dass es einen aktiven autonomen Akt gibt, wo du die Richtung
steuerst, in die sich dein Denken entwickelt, indem du dem Browser sagst, geh dahin,
geh dorthin, für mich dahin, für mich jetzt von dem Punkt zum nächsten Punkt und in
deinem Kopf passiert währenddessen etwas. Und ein Aspekt des epistemologischen
Verflachens ist eben diesen Weg komplett kurz zu schließen und zu sagen, das erste
Ergebnis, was JetGPT dir gibt, ist glaube ich einfach. Egal, wie das dahin gekommen
ist und wie viele Seiten es abgesurft hat dazwischen oder ob es an Tropic war oder
was so immer, das interessiert mich gar nicht mehr. Und das ist die Gefahr, dass
die epistemologische Landkarte, die du brauchst, um zu verstehen, ob der Weg dahin
richtig war, dass die plötzlich weg ist. Also das heißt konkret, ich mache mich
nicht zum Sklaven von dem Ding, ich gehe nicht hin und stelle eine und nehme die
Antwort als bache Münze, sondern ich nehme es als eine mögliche Antwort, als eine
Quelle, die ich, wenn ich sauber arbeite, als auch eine von mehreren Quellen nehme.
Also im Zwarstfall kommt jemand zu mir und sagt, Holger, wie weiß ich nicht,
überarbeiten wir denn jetzt das Produktportfolie von diesem Energiedienstleister, der
Unternehmensparator? Dann kann ich natürlich schon mit denen arbeiten, aber ich kann
es nicht einfach eins zu eins nehmen, sondern ich kaufe mir auch ein Buch dazu und
lese noch drei Artikel und und verdichtet das. Absolut und ich glaube der wichtigste
Aspekt dessen, wo wir in unser neuen Art zu arbeiten mit KI hinkommen werden,
ist der Prozess, das Prozessuale, zu wissen wie bist du da hingekommen und warum.
Also nicht nur eine Antwort zu haben, sondern eine Antwort auf die Frage des Warums
zu haben und das wird den Unterschied ausmachen zwischen ich bezahle jemanden für
seine Antwort und jemand wird keine Arbeit mehr haben, weil er nur ein ChatGPT
-Promptor ist. Ein Beispiel, was ich immer wieder bringe, ist, wir haben früher viele
Projekte verkauft, zu Recht meiner Meinung nach. Wir so eine Liste hatten, die zehn
größten Fehler, die du bei einer CHM -Einführung machen kannst. Und die haben wir
Kunden gezeigt und dann haben die gesagt, oh, auf die Hälfte wär ich nicht gekommen.
Das ist eine gute Idee mit euch zusammenzuarbeiten, ihr habt die Erfahrung. Und als
ChatGPT anfing, dass man es nutzen konnte, von einem Jahr oder sowas, hab ich
reingegeben, sag ich, gibt mir die zehn größten Fehler, die bei der ICM -Einführung
passieren könnten. Aber als Rap, den ich auf ein Lied von Rage Against Machine im
Stilkonzept de la Russia rappen kann. Der Rap -Teil war ganz gut und es traf durch
acht oder neun von den zehn Dingern. Meiner und zwei haben gefehlt. Aber eben genau
das ist halt der Punkt, wo ich dann gute Hoffnung bin, dass wir nächstes Jahr noch
einen Job haben, weil wir halt einschätzen können, was fehlt. Und der nächste Punkt
ist halt die Umsetzung. Also das alleinige Wissen darum, das wahrscheinlich steht das
auch in Büchern oder sowas, Aber dann hinzugehen und zu sagen, die Erfahrung zu
haben, wie kann ich die denn verhindern? Wie gehe ich moderierend hin? Wie binde ich
Menschen ein? Das macht, glaube ich, da an der Stelle weiterhin den Unterschied. Zu
dem Punkt ist es super wichtig, super wichtiger Punkt. Ich habe ja seit ein paar
Jahren mit der fortentwickelten Möglichkeit durch KI mache ich immer mehr Coding
-Sachen, die ich vorher auch nicht so machen konnte, weil ich meine Coding Skills war
nicht die allerbeste, aber ich hatte immer Interesse daran, mich zu entwickeln und
weiter zu lernen und dieses weiter lernen. Das ist etwas, was tatsächlich sehr gut
funktioniert mit KI, wenn du denn lernen willst, weil du kannst dich schneller
pushen, dich auseinanderzusetzen mit einer möglichen technischen Umsetzung von einer
Fragestellung, die du dann natürlich auch testen kannst. Und da sind zwei Punkte
super spannend daran. Nummer eins, du kriegst immer noch manchmal Code, der natürlich
falsch ist, denn nicht funktioniert. Aber wenn du die Grundprinzipien von einem
bestimmten Code verstanden hast, wie funktionieren Funktionen in Python, wie spielt
Interaktionen, haben Elemente in einem gesamten Code. Wenn du das weißt, dann kannst
du auch zum Beispiel sehr schnell merken, was falsch ist und warum es falsch ist.
Wenn dir eine KI was ausspuckt und sagt hier bla bla bla so und so, der Fehler
könnte da sein und du weißt aber das stimmt natürlich nicht, weil das ist eine
statistische Aussage, der Fehler könnte da sein. Du weißt ganz genau, dass der Fehler
nicht da sein kann, weil die ganze Kurzstruktur ganz anders ist und weil das die
Reaktionen, die du auf dem Browser siehst, auch eine andere ist. Also dieses
Erfahrungswissen wird immer wichtiger, wie du gesagt hast. Und die andere Geschichte,
die Umsetzung finde ich auch ein super interessanten Punkt und da kommt mir etwas zu
Gute, was ich halt seit 10 Jahren mache. Ich arbeite im Bereich Innovation und der
Essen mal grundlegend anders als der Bereich Business as Bisher war,
sagen wir mal so, die allermeisten Jobs haben sich darüber definiert, dass sie eine
festgefühlte Arbeitstätigkeit beschrieben hat, die routinierbar, wiederholbar ist und
damit natürlich auch erlernbar und abgrenzbar. In großen Unternehmen haben sich Leute
deswegen sehr wohl und sicher gefühlt, weil sie haben diesen Job gemacht bis zur
Rente und dann ist gut, musstest du auch nichts mehr lernen und dich nicht
weiterentwickeln, außer einmal in Jahr auf den Fortbildungen gehen, für bla bla bla,
die Zukunft von bla bla bla. So funktioniert mein Job nicht, weil jedes Projekt hat
ein Element von Neuigkeit, von Originalität, von neuem Nutzwert, der gebracht und
identifiziert werden muss. So definiert sich Innovation. Meine Hypothese ist zur
Zukunft der Arbeit. Arbeit wurde gerade neu definiert als Innovation, weil alles
andere, was schon existiert, braucht niemand mehr. Das kannst du dir regurgitieren
lassen, neu ausspucken lassen, repetitiv durch KI abarbeiten lassen. Das heißt, all
die repetitiven Jobs, die werden gerade nach und nach durch Agentic AI
wegautomatisiert oder zum Teil radikal reduziert. Und was übrig bleibt,
sind die Leute, die im Sinne von einer Ironies of Automation, von einer unglaublich
intelligenten Frau geschrieben. Ironies, also im Sinne von Ironien der Automatisierung.
Diese Dame heißt Lisanne Bainbridge und die hat schon in den 80er Jahren vorher
gesehen, dass Automatisierung unsere Jobs nicht einfacher macht, sondern sehr, sehr
viel komplexer. Und das ist dieser innovative Aspekt von Arbeit, den ich gerade auf
der Zukunft auf uns zukommen sehe. Aber das heißt, dieses Repetitiv, das hier haben
wir das Beispiel, die man zu mir sagte, also KI ist total gut, hätte immer die
Server -Logs aus Sicherheitsgründen und Server -Logs auswerten müssen. Und jetzt Das
gilt dann, wenn man morgens hin, wenn er so einen ersten Kaffee trinkt, lädt die
ganzen Logs runter, lädt die in ChatGPT hoch und sagt hier, sagt mir, wo irgendwas
auffälliges ist und das hat früher Stunden gebraucht und jetzt kann er... Ja gut,
hoffentlich definiert er seine Arbeit nicht nur darüber, weil das kann ich dir sagen,
dass Serverlog -Auswertung über KI, da wird es einen Tool dafür geben oder gibt's
schon. Genau, also diese Sachen fallen weg und unsere Arbeit ist Neues produzieren.
Neues, ja Neu an sich ist völlig esinnloser Quatsch, niemand braucht Neues an sich.
Es ist genauso wie, wenn jemand auf mich zukommt und sagt, hey, komm, ich habe eine
neue Idee, dann denke ich mir mal, es ist genauso wie ein Gedankenforz. Jeder hat
immer irgendetwas. Es geht um Neue und Nützlich. Und Nützlich erfordert, dass du dich
in andere Menschen reinversetzen kannst und empathisch verstehen kannst, was sie als
Nützlich empfinden. Und das kann Kai noch nicht. Den Job gut zu machen, sage ich
mal so, im besten Fall bist du in Steve Jobs, der sagt, ich kann dir etwas
erfinden, was du nützlich finden wirst, obwohl du gar nicht weißt, dass du es
nützlich finden wirst. Das ist eine Art von stellvertretendem in die Zukunftdenken,
was nur sehr wenige Menschen beherrschen. Die allermeisten Menschen haben ja eigentlich
nur ein Ziel, irgendeinen Scheiß an möglichst viele Menschen zu verkaufen und damit
Geld zu machen. Das ist der kleinste gemeinsame Nenner und das ist, glaube ich,
meine große Angst, dass GPD diese Menschen beflügelt, noch mehr sinnlosen Mist in die
Welt zu bringen, den kein Mensch braucht. Also ich versuche mich mal an einer
Zusammenfassung. Wir kamen ja von der parasozialen Pornografie. Also es ist eben nicht
sozial, sondern parasozial heißt ja, da wird soziales vorgegaukelt. Erster Aussage,
erster Appell, erinnert euch daran, das ist ein Computerprogramm, das versucht,
Dinge von sich zu geben, bei denen das sehr wahrscheinlich ist, dass sie oder
möglichst wahrscheinlich ist, dass sie irgendwie stimmen und dass sie gefallen, aber
da ist kein soziales Wesen auf der einen Seite und das ist andere in Pornografie,
also diese direkte Lustbefriedigung, sich auch einfach im Gedanken zu halten, sich
bewusst zu machen. Das ist eigentlich auch eine Spielart von Instagram Junkie Toom.
Ich habe eine Frage und ich kriege sofort eine Antwort und manche Antworten sind
halt nicht schnell, manche Antworten brauchen Lernen, brauchen längere Spannung halten,
längere Investitionen, damit man zu einer guten Antwort kommt. Wir haben einen
Automaten, der uns schnell Antworten gibt, können stimmen, können nicht stimmen, aber
wir sollten ein bisschen misstrauisch sein, ob dieser schnellen Befriedigung. Das wäre
so der erste Take -away, so nix. Der zweite wäre also am Ende die Aussage, dofe,
repetitive Dinge gerne automatisieren, aber darüber im Klaren sein, kreative neue
Dinge, wahrscheinlich nicht. Ich würde da noch mal differenziert reingehen und würde
sagen, früher fiel in dieser Startup -Blase unterwegs. Dann sagen wir die Frage, wo
du die Latte singst. Neun von zehn von diesen Startups haben es nicht geschafft,
weil sie schlichtweg nicht innovativ waren. Da saß jemand und hat gedacht, ich habe
eine Idee. Wurde nicht gegen den Markt getestet, wurde nicht geguckt, wer sich schon
mal hatte. Man hat sich daran festgehalten. Da würde ich sagen, da kann ChatGPT an
jedem Tag der Woche, der auf geendet und Mittwochs bessere Ideen produzieren, aber
die sind halt genau so wenig echte Innovation. Und dann ja ein bisschen Wiederholung
vom ersten Punkt, diese kritische Auseinandersetzung damit. Nicht alles fürbare Münzer
nehmen, nicht also sich auch gegenseitig ein bisschen misstrauisch zu sein, das ist
ein Messias, der so ein bisschen um die Ecke kommt und mit Vereinfachung, die wir
auch bitter nötig haben, lockt, aber dann eben einfach aufpassen, wie jeder Guru, wie
jeder Sektenführer, muss man das gendern? Oh doch, ich habe noch einmal über den
Sektenführerinnen gelesen. Also wie jede Sekte, jede der Sektenführerinnen, macht sie
sich manchmal einfach, weil sie immer eine Antwort haben will und manche davon sind
einfach falsch oder unpassend oder verkürzt. Ja, finde ich gut. Das wären meine
Takeaways, habe ich was vergessen? Ja, vielleicht sich selbst ernst nehmen und
genügend Wert schätzen, um Komplexität als Wachstumsmöglichkeit zu erkennen.
Das heißt wissen, dass auf diese schnelle Antwort nicht reinzufallen, heißt auch,
die eigene innere Komplexität wertzuschätzen, sich selbst als komplexes Lebewesen
wertschätzen. Ich finde es total spannend, wie du eben sagst, sich selbst ernst
nehmen. Ich habe total Spannung bei mir verursacht, weil ganz oft ist ja die Floskel
nämlich selbst nicht so ernst. Und ich habe neulich versucht, einen Kollegen zu einem
Lunch beim Burger King zu verführen. Und dann sagt er, nee, nee, ich ess da nicht.
Und dann hab ich gesagt, warum denn nicht? Und dann sagt er, weil mein Körper was
besseres verdient hat. Vielleicht ist es so was, also einfach auch zu sagen. Also
hin und wieder hilft der Wopper, der geistige Wopper mal. Aber ganz oft hat unser
Geist halt auch was Gehalt volleres verdient, das schwieriger zu besorgen und
schwieriger zu essen ist. Weil es ist mehr arbeiten, fünf Gänge Menü zu essen als
ein Wobber beim Fahren, den sich reinzuwolfen. Ja, aber langfristig wird die bessere
intellektuelle Diät dir gut tun. So ist das. Und die Schweine hinterm Haus, die
füttern wir weiter mit den Wobbern, weil das ist ein Voll. Sehr schön. Dann sind
wir durch, oder? Wunderbar. Wunderbar. Lieber Tom, vielen Dank fürs Vorbeikommen. Ich
danke dir, hat sehr viel Spaß gemacht und war tatsächlich inspirierend, anregend,
motivierend, alles all of the above. Das freut mich, mir hat es auch Spaß gemacht,
mal wieder eine sehr einfach natürlich laufende Unterhaltung, aber gut, was willst du
eure erwarten, wenn der Aufhängepornografie ist? Ich danke dir fürs Kaufen. Ich danke
euch da draußen fürs Zuhören. Ich hoffe, ihr konntet was mitnehmen. Wir packen ein
paar Links in die Show Notes. Diese Grafik mit den Scrapern, selbstverständlich den
Link zu Tom's Profil, geht dahin, guckt nach. Da seht ihr wahrscheinlich auch, wo
man ihn mal auf Veranstaltungen etc. Sprechen sehen kann. Folgt ihm, es lohnt sich.
Vielen Dank für's zuhören und bis zum nächsten Mal. Tschüss!