Select Page

Gehirnfutter für Pioniergeister: Was ist Künstliche Intelligenz & welche Auswirkungen hat sie auf die Arbeitswelt? Das ist die Fragestellung mit der wir uns in Raum #856 des Deep Talk Clubs unter dem Dachthema “Pioniergeist mit Hirn” befassen. Höre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: 🇩🇪🇨🇭🇦🇹 #856 KI & Arbeitswelt | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:03.280

Einen wunderschönen guten Morgen wünsche ich.

00:00:03.280 –> 00:00:11.480

Ja, nach einer gestrigen, ganz, ganz tollen Veranstaltung von Dr. Johanna Dahm,

00:00:11.480 –> 00:00:17.520

die Pressekonferenz, die stattgefunden hat in Frankfurt, einige von euch waren auch mit vor Ort

00:00:17.520 –> 00:00:19.440

und es war großartig.

00:00:19.440 –> 00:00:21.480

Freue ich mich heute, den Morgen zu starten.

00:00:21.480 –> 00:00:26.800

Ich kann euch sagen, es ist noch in den Knochen zu spüren.

00:00:26.800 –> 00:00:31.960

Und trotzdem und gerade deswegen bin ich total geflasht heute Morgen.

00:00:31.960 –> 00:00:36.520

Und ja, ich habe euch auch einen Link wieder mitgebracht und ich werde es auch alles gleich

00:00:36.520 –> 00:00:37.520

aufklären.

00:00:37.520 –> 00:00:39.800

Also ich denke, ganz, ganz spannend wird es heute.

00:00:39.800 –> 00:00:46.160

Ich freue mich total auf diesen Austausch mit euch und über KI und die Arbeitswelt

00:00:46.160 –> 00:00:47.160

zu sprechen.

00:00:47.160 –> 00:00:51.520

Also was ist eigentlich künstliche Intelligenz und welche Auswirkungen hat sie auf die Arbeitswelt?

00:00:51.520 –> 00:00:57.920

Das ist das Thema, bei dem wir unter dem Dachthema Pioniergeist mit Hirn gemeinsam heute mal

00:00:57.920 –> 00:00:58.920

draufschauen wollen.

00:00:58.920 –> 00:01:03.160

Und ähnlich wie heute mit der KI werden wir in den nächsten Tagen eben auch andere Aspekte

00:01:03.160 –> 00:01:09.040

aufmachen, ob das die Blockchain ist, ob das andere Technologien sind, VR-Brillen und so

00:01:09.040 –> 00:01:10.040

weiter und so fort.

00:01:10.040 –> 00:01:15.240

Also wir werden uns hier ganz vielfältig eben neue Technologien auch nochmal anschauen,

00:01:15.240 –> 00:01:20.200

um eben auch die Zusammenhänge zu verstehen, um zu realisieren, was bedeutet das denn eigentlich,

00:01:20.200 –> 00:01:22.080

Wie kann ich das vielleicht auch für mich nutzen?

00:01:22.080 –> 00:01:26.640

Und was bedeutet das aber auch nicht nur auf der individualistischen Ebene, sondern eben

00:01:26.640 –> 00:01:29.920

auch gemeinschaftlich gedacht, als Gesellschaft gedacht?

00:01:29.920 –> 00:01:31.760

Wo sind die Gefahren?

00:01:31.760 –> 00:01:33.640

Wo können wir mit anpacken?

00:01:33.640 –> 00:01:35.960

Wie können wir das aber trotzdem für uns auch nutzen?

00:01:35.960 –> 00:01:39.360

Und welchen Beitrag können wir in diesem Zusammenhang leisten?

00:01:39.360 –> 00:01:41.880

Und was hat das Ganze mit Pioniergeist, mit Hirn zu tun?

00:01:41.880 –> 00:01:44.960

Also von daher wird das sehr, sehr spannend.

00:01:44.960 –> 00:01:46.840

Und insofern freue ich mich auch riesig.

00:01:46.840 –> 00:01:52.400

Und in diesem Zusammenhang möchte ich gerne zum Einstieg heute in das KI-Thema auch verkünden

00:01:52.400 –> 00:01:53.720

und freue mich darüber.

00:01:53.720 –> 00:01:59.840

Ja, ich hatte es gesagt, die Knowledge Base, die wird vorbereitet für euch im Hintergrund.

00:01:59.840 –> 00:02:05.320

Wir haben hier einiges in den letzten Wochen fabriziert, auf die Beine gestellt und so

00:02:05.320 –> 00:02:06.320

weiter.

00:02:06.320 –> 00:02:10.280

Das Ganze wird weiter beflügelt, gefüllt und so weiter.

00:02:10.280 –> 00:02:13.320

Aber der erste Wurf ist bereits veröffentlicht.

00:02:13.320 –> 00:02:19.760

findet es auf der Webseite von mir, jasminjasan.com, also vor- und nachname.com.

00:02:19.760 –> 00:02:25.000

Und dann gibt es einen Reiter oder Menüpunkt Knowledge Base.

00:02:25.000 –> 00:02:29.040

Und da sind von A bis Z zumindest schon mal

00:02:29.040 –> 00:02:34.200

mindestens ein Begriff aufgegriffen unter diesem Dach Pioniergeist mit Hirn.

00:02:34.200 –> 00:02:36.840

Und hier wird noch ganz, ganz viel mehr folgen.

00:02:36.840 –> 00:02:38.680

Also es ist der erste Entwurf.

00:02:38.680 –> 00:02:42.800

Das heißt, viele Verlinkungen sind noch, also Verlinkungen sind noch gar keine

00:02:43.000 –> 00:02:48.440

Das ist jetzt etwas, was sukzessive Schritt für Schritt kommen wird. Ich hatte schon angekündigt,

00:02:48.440 –> 00:02:54.560

dass hier auch verschiedene hochkarätige Experten, Wissenschaftler mitschreiben werden,

00:02:54.560 –> 00:02:59.240

auch hier Beiträge noch mitliefern werden. Auch hier finden Gespräche gerade statt.

00:02:59.240 –> 00:03:04.920

Und um die Qualität entsprechend hochzuhalten, habe ich mich entschieden, dass es eben Personen

00:03:04.920 –> 00:03:10.040

sein werden, die auch direkt an die Wissenschaft angedockt sind. Und das sind in der Regel die,

00:03:10.040 –> 00:03:14.860

die auch irgendwie promoviert haben, Lehren an Hochschulen und so weiter und so fort. Und insofern

00:03:14.860 –> 00:03:18.440

passiert hier jetzt in den nächsten Tagen und Wochen ganz, ganz viel. Ich freue mich drauf,

00:03:18.440 –> 00:03:23.200

damit wir diesen ersten Wurf in Anführungsstrichen erstmal veröffentlichen können und nicht sagen,

00:03:23.200 –> 00:03:28.520

ah, Speed of Implementation ist hier ein Thema, damit wir nicht sagen, wir warten jetzt wochenlang,

00:03:28.520 –> 00:03:33.800

bis irgendwelche Beiträge da sind oder, oder, oder. Habe ich mich entschieden, einfach Datenmaterial

00:03:33.800 –> 00:03:39.200

aufzugreifen, was bereits da ist, einiges neu hinzuzufügen und das eben entsprechend zu

00:03:39.200 –> 00:03:44.480

veröffentlichen. Das heißt, es sind dann Beiträge von ganz kurz über ganz lang

00:03:44.480 –> 00:03:48.240

alles Mögliche schon mal mit dabei, damit wir zumindest bei jedem Buchstaben auch

00:03:48.240 –> 00:03:53.360

schon mal was drinstehen haben. Und wundert euch da eben nicht, das ist noch

00:03:53.360 –> 00:03:56.600

nicht voll umfänglich, sondern das wird jetzt weiter wachsen und da freue ich

00:03:56.600 –> 00:04:00.800

mich total drauf. Und ja, und in diesem Zusammenhang, warum erwähne ich das

00:04:00.800 –> 00:04:04.920

gerade jetzt und heute? Weil das passt zu unserem Thema künstliche Intelligenz,

00:04:04.920 –> 00:04:10.760

Denn dazu ist auch ein Beitrag eingestellt, der übrigens vor einigen Jahren schon entstanden

00:04:10.760 –> 00:04:12.400

ist, also auch nicht neu ist.

00:04:12.400 –> 00:04:16.760

Den gab es vorher schon im Englischen, der wurde jetzt übersetzt für die Knowledge

00:04:16.760 –> 00:04:22.120

Base ganz spezifisch, um hier eben zur künstlichen Intelligenz einfach diesen Beitrag mit aufzugreifen.

00:04:22.120 –> 00:04:28.080

Und damit möchte ich gerne erst mal einsteigen als Impuls sozusagen oder für die, die vielleicht

00:04:28.080 –> 00:04:30.960

noch nicht genau wissen, was ist denn eigentlich künstliche Intelligenz.

00:04:30.960 –> 00:04:36.840

Relativ grob lässt sich zusammenfassen, dass es um die Fähigkeit eines Computers geht

00:04:36.840 –> 00:04:43.040

oder eines computergestützten Roboters mit verschiedenen Tätigkeiten, die in ähnlicher

00:04:43.040 –> 00:04:47.560

Weise sozusagen ausgeführt werden wie bei intelligenten Lebewesen.

00:04:47.560 –> 00:04:49.680

Also das ist das Ziel, was dahinter ist.

00:04:49.680 –> 00:04:54.080

Und daher wird im Gegensatz zur natürlichen Intelligenz der Begriff “künstliche Intelligenz”

00:04:54.080 –> 00:04:55.080

verwendet.

00:04:55.080 –> 00:05:00.840

Ganz vieles wird im Grunde genommen auch versucht, sozusagen einigermaßen oder eins zu eins,

00:05:00.840 –> 00:05:06.400

möglich, sogar eins zu eins, von den Strukturen her oder von den Abläufen her sozusagen zu

00:05:06.400 –> 00:05:11.240

spiegeln, wie das auch bei uns im Gehirn dargestellt ist oder was wir über das Gehirn wissen.

00:05:11.240 –> 00:05:17.000

Und deswegen sprechen wir hier in dem Zusammenhang eben von einer künstlichen Intelligenz im

00:05:17.000 –> 00:05:20.720

Unterschied zur klassischen menschlichen Intelligenz, die wir per se kennen.

00:05:20.720 –> 00:05:26.240

Ja, und künstliche Intelligenz steht somit für maschinelle Intelligenz, die aus Daten

00:05:26.240 –> 00:05:31.240

gewonnene Informationen nutzt, um komplexe Aufgaben zu lösen, die Forschung voranzutreiben

00:05:31.240 –> 00:05:35.360

und Ereignisse und menschliches Verhalten besser vorherzusagen.

00:05:35.360 –> 00:05:41.240

Und infolgedessen entstehen immer mehr intelligente Maschinen, die wie Menschen arbeiten und reagieren

00:05:41.240 –> 00:05:42.240

können.

00:05:42.240 –> 00:05:46.840

Und eine bahnbrechende Technologie ist das, von der wir hier sprechen, die in Kombination

00:05:46.840 –> 00:05:50.800

mit anderen Technologien unsere Welt eben zunehmend verändert.

00:05:50.800 –> 00:05:57.000

Das war jetzt, das ist jetzt keine neue Erkenntnis, das haben wir die letzten

00:05:57.000 –> 00:06:01.600

Jahre immer wieder auch gesagt. Nur im Unterschied gab es jetzt eine

00:06:01.600 –> 00:06:07.440

Entwicklung erst vor kurzem, vor einigen Monaten, dass eben Chat GPT ein Tool,

00:06:07.440 –> 00:06:13.840

das KI gestützt ist, ja, dass das marktzugänglich gemacht wurde. Und das

00:06:13.840 –> 00:06:17.560

hat dazu geführt, dass wir, obwohl wir im Alltag schon bewusst oder unbewusst

00:06:17.560 –> 00:06:22.800

ganz viel mit KI im Grunde genommen schon arbeiten, dass jetzt der eine oder andere

00:06:22.800 –> 00:06:27.760

realisiert hat, oh, was passiert denn da eigentlich? Das heißt, das, was vorher für viele nicht

00:06:27.760 –> 00:06:34.080

sichtbar war, ist nun sichtbar geworden, was dazu führt, dass es viele, viele Diskussionen

00:06:34.080 –> 00:06:39.400

rund um die KI gibt, Gefahren, Sorgen und, und, und, was da alles angesprochen wird.

00:06:39.400 –> 00:06:45.320

Wichtig nochmal ganz, ganz, ganz stark zu unterstreichen, es ist keine neue Technologie,

00:06:45.320 –> 00:06:49.640

sondern die Technologie, an der wird schon sehr, sehr lange gearbeitet.

00:06:49.640 –> 00:06:55.440

Und das heißt nur über diese Marktdurchdringung mit Chat-GPT, mit dem kostenfreien Zugang

00:06:55.440 –> 00:07:01.280

und unser Bewusstsein, das darauf geschärft wurde, für viele geschärft wurde, entsteht

00:07:01.280 –> 00:07:05.460

jetzt die Situation, dass plötzlich über etwas diskutiert wird, was vorher nicht so

00:07:05.460 –> 00:07:08.360

stark in den Medien einfach anzutreffen war.

00:07:08.360 –> 00:07:10.560

Also das vielleicht erstmal so anbei.

00:07:10.560 –> 00:07:17.200

Und ja, und Chat-GPT ist ja nur ein Beispiel. Wie gesagt, KI-Tools werden in vielen, vielen

00:07:17.200 –> 00:07:23.840

Kontexten eingesetzt und auch genutzt. Und letztendlich handelt es sich hierbei um ein

00:07:23.840 –> 00:07:28.880

Tool wie auch viele andere Tools, die wir bisher kennen. Also ihr kennt das aus der

00:07:28.880 –> 00:07:33.160

täglichen Arbeit, ob das E-Mails sind, ob das irgendwelche Programme, Softwareprogramme

00:07:33.160 –> 00:07:38.240

sind, die wir nutzen. Es geht letztendlich darum, eine Effizienzsteigerung dadurch zu

00:07:38.240 –> 00:07:42.760

erzielen, schneller gewisse Arbeitsergebnisse zu liefern. Und das

00:07:42.760 –> 00:07:47.400

bahnbrechende hier an dem System ist eben dieses Deep Learning im Hintergrund.

00:07:47.400 –> 00:07:53.080

Das heißt, dieses Machine Learning, was hier stattfindet, dass Informationen,

00:07:53.080 –> 00:07:57.160

die eingespeist werden, sozusagen auch wieder neu zusammenerkannt und neu

00:07:57.160 –> 00:08:01.480

zusammengesetzt werden können. Und daraus entsteht eben nochmal eine

00:08:01.480 –> 00:08:05.320

Potenzierung der Effizienzsteigerungsmöglichkeiten, die wir hier

00:08:05.320 –> 00:08:11.000

haben. Und dadurch, dass unser Gehirn sehr, sehr stark linear sich alles nur

00:08:11.000 –> 00:08:15.880

vorstellt und denkt, haben wir teilweise wirklich Schwierigkeiten nachzuvollziehen,

00:08:15.880 –> 00:08:22.800

welche Potenzierung hier jetzt die nächsten Wochen, Monate, Jahre auf uns

00:08:22.800 –> 00:08:27.200

sozusagen zurollt. Und das ist natürlich immer mit zwei Seiten zu betrachten. Also

00:08:27.200 –> 00:08:30.280

auch die Sorgen sind nicht unbegründet. Man kann jetzt hier noch mal genauer

00:08:30.280 –> 00:08:33.680

gucken, welche Sorgen gibt es denn und welche sind begründet oder unbegründet.

00:08:33.680 –> 00:08:37.480

Das ist mal so auf der ethischen Ebene in Anführungsstrichen oder auch gesellschaftlichen

00:08:37.480 –> 00:08:41.780

Ebene zu diskutieren. Und die anderen Aspekte und das ist das, was wir uns heute allerdings

00:08:41.780 –> 00:08:44.840

auch noch mal genauer anschauen wollen, ist eben dieser Aspekt.

00:08:44.840 –> 00:08:48.480

Ja, was, welche, wo kann ich das alles einsetzen?

00:08:48.480 –> 00:08:52.000

Welche Auswirkungen hat das denn auch auf die Arbeitswelt und wohin entwickeln wir uns

00:08:52.000 –> 00:08:57.200

eigentlich? Da hier mal so ein bisschen Gehirn jonglieren, durchzuführen, um gemeinsam

00:08:57.200 –> 00:08:58.280

einfach mal zu gucken.

00:08:58.280 –> 00:09:03.280

Und in dem Zusammenhang möchte ich gerne neben ganz vielen anderen Anwendungsfeldern, die

00:09:03.280 –> 00:09:08.280

ihr dann auch mit reinbringen könnt. Auch die Brücke bauen zu dem Link, den ich für heute

00:09:08.280 –> 00:09:13.520

mitgebracht habe und auch die Brücke bauen zu der gestrigen Veranstaltung, denn die gestrige

00:09:13.520 –> 00:09:21.720

Veranstaltung von Dr. Johanna Dahm mit den grandiosen Mitautoren, mit und mit Herausgebern,

00:09:21.720 –> 00:09:28.640

tollen tollen Gästen wie Uwe Bingel, Julian Backhaus, Mick Knauf, Tisci, also Roland Tisci

00:09:28.640 –> 00:09:34.640

und vielen, vielen mehr, war wirklich eine Inspiration, ein Feuerwerk pur. Es ging um

00:09:34.640 –> 00:09:39.600

Entscheidungen und auch, welche Rolle eben auch Entscheidungen treffen, wie man mit Entscheidungen

00:09:39.600 –> 00:09:47.200

zum Erfolg kommt. Und ich finde, das passt wunderbar zu unserem Thema, denn ja, KI hat

00:09:47.200 –> 00:09:54.920

ja verschiedene Bereiche, in denen wir es einsetzen können. Und eines der Bereiche ist eben der Kontext

00:09:54.920 –> 00:09:57.640

des Buchschreibens und der Autorenschaft.

00:09:57.640 –> 00:10:00.160

Ich hatte das ja schon an einigen Stellen platziert.

00:10:00.160 –> 00:10:04.400

Ihr wisst, dass die magische Hex zur optimalen Nutzung von Chachibiti

00:10:04.400 –> 00:10:07.600

erstelle, dein eigenes Fachbuch mithilfe von KI

00:10:07.600 –> 00:10:10.960

auch genau als Pilot sozusagen entstanden ist,

00:10:10.960 –> 00:10:14.040

um Menschen, die wenig bisher mit KI zu tun hatten,

00:10:14.040 –> 00:10:18.480

einfach mal zu demonstrieren, was damit machbar ist.

00:10:18.480 –> 00:10:20.480

Natürlich kann man sich das Buch anschauen

00:10:20.480 –> 00:10:21.720

und natürlich kann man sagen,

00:10:21.720 –> 00:10:24.480

das kann ich aber doch viel besser schreiben oder Sonstiges.

00:10:24.560 –> 00:10:29.240

Aber, und das war Sinn und Zweck, einfach mal zu zeigen, was theoretisch mit dieser

00:10:29.240 –> 00:10:31.480

Effizienzsteigerung einfach auch möglich ist.

00:10:31.480 –> 00:10:36.400

Denn dieses Buch ist in diesem Piloten sozusagen, der hier gestartet wurde, um das zu demonstrieren,

00:10:36.400 –> 00:10:39.080

innerhalb von 24 Stunden entstanden.

00:10:39.080 –> 00:10:44.480

Und ich finde, das ist ein Wow-Effekt, weil das zeigt einfach, was möglich ist.

00:10:44.480 –> 00:10:50.440

Gleichzeitig, energetisiert gestern von der Veranstaltung, habe ich dann nochmal heute

00:10:50.440 –> 00:10:54.960

Morgen, ich bin relativ früh aufgestanden, nachdem ich gestern wirklich schon relativ

00:10:54.960 –> 00:11:00.880

schnell tot umgefallen bin nach der Veranstaltung, weil ich müde war, habe ich dann doch angefangen,

00:11:00.880 –> 00:11:02.080

noch mal zu reflektieren.

00:11:02.080 –> 00:11:04.440

Und mir ist eines aufgefallen bei den Gesprächen.

00:11:04.440 –> 00:11:11.280

Obwohl da so tolle Menschen mit dabei waren, die dann auf der einen Seite eben aufzeigen,

00:11:11.280 –> 00:11:15.080

wie wichtig eben auch diese Entscheidungen sind, um in Richtung Erfolg, was auch immer

00:11:15.080 –> 00:11:17.320

das für euch bedeutet, zu laufen.

00:11:17.320 –> 00:11:19.200

Ja, und was es eben braucht.

00:11:19.200 –> 00:11:24.200

Und gleichzeitig tappen wir alle immer wieder in die gleiche Falle.

00:11:24.200 –> 00:11:26.200

Und da nehme ich mich selbst nicht aus.

00:11:26.200 –> 00:11:33.200

Und zwar nehme ich die Falle, zu sagen, ja, als nächstes steht das und das an, aber das hat jetzt noch mal ein bisschen Zeit.

00:11:33.200 –> 00:11:40.200

Und interessanterweise haben mich gestern ganz viele Menschen angesprochen, ob das um Mentorings ging, ob das um Buchprojekte ging usw.

00:11:40.200 –> 00:11:42.200

Und die Buchprojekte standen im Vordergrund.

00:11:42.200 –> 00:11:48.200

Das heißt, viele Autoren, die da mitgemacht haben, haben gesagt, ja, als nächstes weiß ich, es steht jetzt das nächste Buchprojekt an.

00:11:48.200 –> 00:11:50.560

Ich gucke mal, wann ich damit starte.

00:11:50.560 –> 00:11:55.120

Ich schaue mal heute noch nicht, irgendwann morgen, in Anführungsstrichen.

00:11:55.120 –> 00:12:00.040

Und da sind wir nämlich in dieser menschlichen Falle mit dem im Kontext der Entscheidungen.

00:12:00.040 –> 00:12:05.520

Und gerade im Kontext von KI hat das jetzt eine massive Auswirkung und auf die möchte

00:12:05.520 –> 00:12:11.200

ich noch mal sensibilisieren, nicht aufzuschieben, sondern wirklich auch in die Umsetzung zu

00:12:11.200 –> 00:12:13.800

gehen, Entscheidungen zu treffen, loszulaufen.

00:12:13.800 –> 00:12:17.480

Denn in dem Moment, wo ich loslaufe, kommt auch der Rest.

00:12:17.480 –> 00:12:21.680

Nur wenn ich gar nicht erst starte, sondern immer wieder nur aufschiebe, dann passiert

00:12:21.680 –> 00:12:22.680

eben nicht so viel.

00:12:22.680 –> 00:12:26.680

Und die Frage habe ich gestern auch schon an jemanden formuliert.

00:12:26.680 –> 00:12:31.600

Die Frage ist nicht, welchen Preis zahle ich dafür, sondern auch mal die Frage zu

00:12:31.600 –> 00:12:37.360

stellen, welchen Preis zahle ich dafür, nicht angetreten zu sein oder nicht gestartet zu

00:12:37.360 –> 00:12:38.360

sein.

00:12:38.360 –> 00:12:41.920

Und die Frage habe ich in einem Kontext sehr persönlich gestern gestellt, mit in einem

00:12:41.920 –> 00:12:47.800

persönlichen Gespräch, wo jemand seit zwei Jahren etwas überlegt und noch nicht gestartet ist. Also

00:12:47.800 –> 00:12:52.640

es war, ich möchte jetzt hier keinen Namen nennen, aber das war wirklich sehr konkret an der Stelle.

00:12:52.640 –> 00:12:57.760

Und wenn wir zurückblicken, es sind zwei Jahre vergangen und in der Zwischenzeit ist viel passiert,

00:12:57.760 –> 00:13:03.640

aber das, was diese Person ursprünglich vorhatte, ist in keinster Weise an der Stelle vorangeschritten.

00:13:03.640 –> 00:13:08.400

Und aus diesem Grund habe ich euch jetzt diesen Link heute auch noch mal mitgebracht und möchte

00:13:08.400 –> 00:13:13.800

das hier auch nochmal platzieren, gerade im Kontext der KI, denn das ist eines der Anwendungsbereiche,

00:13:13.800 –> 00:13:20.280

die wir hier haben, mit denen ich auch tagtäglich auch arbeite. Und zwar ist das die Membership

00:13:20.280 –> 00:13:26.960

Bestselling Authors Club. Und Bestselling Authors Club, also da geht es im Grunde genommen für alle,

00:13:26.960 –> 00:13:32.880

die mit dem Gedanken spielen, ein Buch zu publizieren, ist das die Rundum-Mitgliedschaft

00:13:32.880 –> 00:13:37.720

für alle, die bereit sind, die extra Meile zu gehen. Das heißt, es ist eine Schritt-für-Schritt-Begleitung

00:13:37.720 –> 00:13:43.580

von der Idee bis zur Implementierung, sowohl für E-Book, Taschenbuch, Hardcover, Hörbuch,

00:13:43.580 –> 00:13:48.840

was auch immer man da veröffentlichen möchte, inklusive Marketingstrategien und Maßnahmen,

00:13:48.840 –> 00:13:54.400

sowohl in der Vorbereitung als auch im Hinblick auf den Bestseller-Status und dann auch das

00:13:54.400 –> 00:13:59.720

Marketing danach, denn das vergessen häufig ganz viele, dass das nicht fertig ist, sozusagen

00:13:59.720 –> 00:14:05.160

in Anführungsstrichen, mit der Publikation, sondern danach erst richtig losgeht, für

00:14:05.160 –> 00:14:11.400

Einsatz und Vertrieb mit maximalen Mehrwert. Und on top gibt es jetzt noch etwas, was nämlich

00:14:11.400 –> 00:14:16.880

hinzukommt und das möchte ich heute sozusagen mit ganz großer Freude auch an der Stelle verkünden

00:14:16.880 –> 00:14:23.120

und bewerben, nämlich was neu ist, sind die KI-gestützten Tools. Das heißt, es geht nicht

00:14:23.120 –> 00:14:28.320

nur darum, wie schreibe ich, was ist marketingmäßig wichtig und so weiter, sondern auch die

00:14:28.320 –> 00:14:35.560

entsprechenden KI-gestützten Tools aufzuzeigen, die wir im deutschsprachigen Markt für uns dafür auch

00:14:35.560 –> 00:14:42.600

nutzen können, um bei der Umsetzung des Vorhabens eine tausendfache Beschleunigung zu erzielen. Und

00:14:42.600 –> 00:14:49.920

insofern, ja, schaut’s euch an. Wer wirklich mit dem Gedanken spielt, nutzt die Gelegenheit. Es ist

00:14:49.920 –> 00:14:54.360

für ein Jahr und es ist nicht nur irgendwie online und irgendwelche Kurse, die ihr euch oder Videos,

00:14:54.360 –> 00:14:59.720

die ihr euch anschauen könnt, sondern eben auch mit einer regelmäßigen monatlichen live online

00:14:59.720 –> 00:15:05.040

Begleitung, wo und das finde ich total wichtig, damit man eben hier dann auch die Möglichkeit hat,

00:15:05.040 –> 00:15:09.920

Fragen zu formulieren, damit man beim nächsten Mal auch mal wieder gefragt wird, wo stehst du

00:15:09.920 –> 00:15:15.680

denn eigentlich? Bist du drei Schritte weitergekommen oder ja, oder ist es wieder nur beim

00:15:15.680 –> 00:15:21.960

Vorhaben geblieben? Und ich glaube gerade diese diese Accountability, dieses Nachhalten und so

00:15:21.960 –> 00:15:26.360

Das ist auch etwas, was wir brauchen, was uns eben an dieser Stelle voranbringt.

00:15:26.360 –> 00:15:31.080

Deswegen möchte ich das als erstes Beispiel hier an der Stelle mit einbringen.

00:15:31.080 –> 00:15:37.120

Künstliche Intelligenz, einer der Bereiche, die wir tagtäglich nutzen und einsetzen,

00:15:37.120 –> 00:15:41.640

ist hier an der Stelle eben im Kontext von Buchautorenschaften.

00:15:41.640 –> 00:15:46.280

Und wie kann ich eben diese Tools auch letztendlich nutzen und einsetzen?

00:15:46.280 –> 00:15:47.280

Was kann ich damit machen?

00:15:47.280 –> 00:15:50.520

Und das ist weit mehr als nur den Text zu schreiben oder so was, das vielleicht nochmal

00:15:50.520 –> 00:15:56.280

by the way erwähnt, was die Tools hier eben an Möglichkeiten auftun, die ich nutzen kann,

00:15:56.280 –> 00:16:02.640

um viel effektiver in eine Sichtbarkeit zu kommen, das Marketing entsprechend zu gestalten.

00:16:02.640 –> 00:16:08.840

Ja, angefangen von Bildern, die sich gestalten lassen, über textliche Abschnitte, über

00:16:08.840 –> 00:16:11.800

Postings, über Social Media Marketing und so weiter.

00:16:11.800 –> 00:16:17.260

Also alles in der Bandbreite, was ich dann nicht nur im Kontext der Buchautorenschaft

00:16:17.260 –> 00:16:22.780

hier für mich nutzen kann, sondern auch alles, was mit Marketing in anderem Kontext für

00:16:22.780 –> 00:16:25.700

mein Unternehmen und für meine Unternehmung zu tun haben.

00:16:25.700 –> 00:16:32.140

So, das ist mal ein Beispiel, wo die KI heute eingesetzt hat und uns in unseren Vorhaben

00:16:32.140 –> 00:16:40.180

und in unserer Geschwindigkeit massiv Potenziale sichert, entfalten lässt, tausendfach beschleunigen

00:16:40.180 –> 00:16:41.180

lässt.

00:16:41.180 –> 00:16:44.620

Natürlich dürfen wir auf der einen oder anderen Seite auch die Entschleunigung nicht

00:16:44.620 –> 00:16:45.620

vergessen.

00:16:45.620 –> 00:16:50.740

gerne unterstreichen, denn wenn ich aber, wenn ich die Möglichkeit habe zu beschleunigen,

00:16:50.740 –> 00:16:55.260

dann habe ich ja auch an der anderen Stelle die Möglichkeit, wieder in die Entschleunigung,

00:16:55.260 –> 00:16:59.140

also durch den Freiraum, der mir geschaffen wurde, auch hier wieder zu nutzen. Und das,

00:16:59.140 –> 00:17:04.340

auch das finde ich eine großartige Möglichkeit. Ja, das ist mal so ein Beispiel. Es gibt noch

00:17:04.340 –> 00:17:07.780

viel mehr. Ich kann noch viel mehr Beispiele reinbringen, aber ich möchte ganz gerne jetzt

00:17:07.780 –> 00:17:15.060

wirklich gucken, dass wir aus diesem Monolog-Modus rauskommen und gemeinsam hier einsteigen in einen

00:17:15.060 –> 00:17:23.280

gemeinsamen Austausch, in eine gemeinsame Reflexion. Was sind denn so die, ja, in der Arbeitswelt,

00:17:23.280 –> 00:17:27.320

die Bereiche, wo ihr vielleicht heute auch schon KI nutzt, wo ihr wisst, dass wir KI

00:17:27.320 –> 00:17:32.080

einsetzen, im Hintergrund KI läuft, dass wir da darauf noch mal sensibilisieren können,

00:17:32.080 –> 00:17:36.280

um dann auch noch mal gemeinsam zu schauen und zu überlegen, was sind das denn eigentlich

00:17:36.280 –> 00:17:42.000

für Auswirkungen, die das Ganze jetzt auf unsere Arbeitswelt haben wird. Ja, und damit

00:17:42.000 –> 00:17:46.000

begrüße ich ganz herzlich Marc. Einen wunderschönen guten Morgen. Ich hoffe, du bist fit.

00:17:46.000 –> 00:17:51.640

Guten Morgen. Ja, ich bin fit. Ich hatte das große Glück, auch auf dieser Veranstaltung zu sein.

00:17:51.640 –> 00:17:56.800

Ich hatte auch nur vier Stunden Schlaf, aber es war fantastisch. Und sehr, sehr viele Themen,

00:17:56.800 –> 00:18:02.040

das können wir auch sagen. Ich habe Yasemin dann natürlich gesehen und habe mir zugelegt. Und ganz,

00:18:02.040 –> 00:18:05.600

ganz viele Themen, die wir hier besprochen haben, sind auch aufgegriffen worden. Also wir sind nicht

00:18:05.600 –> 00:18:09.000

die einzigen, die sich mit diesen Themen beschäftigen. Bevor ich jetzt konkret zum

00:18:09.000 –> 00:18:12.160

Thema was sagen möchte, möchte ich eine Erkenntnis mit euch teilen, die ist wichtig,

00:18:12.160 –> 00:18:15.880

bevor ich zu meinem Statement komme. Mir ist gestern auch wieder bewusst geworden,

00:18:15.880 –> 00:18:20.120

wir beziehen ja Informationen. In Unternehmen beziehen wir Informationen und auch von der

00:18:20.120 –> 00:18:24.760

Presse beziehen wir Informationen. Und was ich immer wieder feststelle oder immer wieder selber

00:18:24.760 –> 00:18:30.440

anwenden muss, dass wir prüfen, wer gibt diese Informationen raus, wo ist der Wahrheitsgehalt

00:18:30.440 –> 00:18:35.320

dieser Information, welchen Zweck hat der, der die Informationen rausgibt, geht es nur in den

00:18:35.320 –> 00:18:38.880

Mehrwert? Und dass wir uns auch immer wieder bewusst machen, und da komme ich gleich mit einem

00:18:38.880 –> 00:18:42.440

Beispiel dazu, dass diese Informationen, wenn die von der Presse kommen, das sind

00:18:42.440 –> 00:18:46.900

keine schlechten Menschen, aber negative Schlagzeilen verdienen wir Geld. Also die

00:18:46.900 –> 00:18:50.520

Presse informiert uns, aber um die Zeitung verkaufen zu können, müssen wir uns

00:18:50.520 –> 00:18:53.480

aufschrecken. Und das kann ich euch erklären in einem kleinen Beispiel. Wenn

00:18:53.480 –> 00:18:57.360

wir uns mit dem Thema KI beschäftigen, dann habe ich jetzt, finde ich im

00:18:57.360 –> 00:19:01.040

Internet mehrere Möglichkeiten. Die erste Möglichkeit, die einem sofort ins

00:19:01.040 –> 00:19:05.680

Auge schießt, sind Achtung, 800 Millionen Jobs werden von der KI betroffen sein.

00:19:05.680 –> 00:19:12.040

Ups, denke ich, 800 Millionen Jobs. Oh man, das ist aber eine ganze Menge. Da wird erstmal die Angst geschürt.

00:19:12.040 –> 00:19:18.680

Oder, Mann, Mann, Mann, was kommt da auf uns zu? Wenn man aber weiter recherchiert, findet man auch andere Nachrichten, die dann stehen.

00:19:18.680 –> 00:19:28.600

80 Prozent der Arbeitnehmer werden dann unterstützt oder sind in Berufen tätigt, in denen mindestens eine Aufgabe durch die KI schneller erledigt werden könne.

00:19:28.600 –> 00:19:33.400

Wenn ich dieses beiden Texte gegenüber stelle, zum einen kann eine Arbeit schnell erledigt werden

00:19:33.400 –> 00:19:39.680

oder zum anderen sind 800 Millionen Jobs betroffen, erzeugt das komplett unterschiedliche Gefühle.

00:19:39.680 –> 00:19:44.480

Das erst mal als Einstieg. Und bevor ich auch darauf eingehe, welche Berufe wegfallen,

00:19:44.480 –> 00:19:49.320

ist mir auch ganz, ganz wichtig, da nochmal anzufangen, damit wir haben auch gestern,

00:19:49.320 –> 00:19:53.680

haben wir einen fantastischen Vortrag gehört. Ich hoffe, der Mann kommt einmal zum Autoren-Frühstück

00:19:53.680 –> 00:20:01.200

von Mick Nauf, ein deutscher Wirtschaftsjournalist, der das Thema Börse, das Thema Finanzen so

00:20:01.200 –> 00:20:03.760

fantastisch aufgearbeitet hat.

00:20:03.760 –> 00:20:07.920

Und wenn jemand zu mir gesagt hätte, Marc, hast du nicht Lust, morgen Abend zu mir zu

00:20:07.920 –> 00:20:12.280

einer Veranstaltung zu gehen, da geht es um Aktien oder um Finanzen und da spricht jemand

00:20:12.280 –> 00:20:14.640

von einer Bank, dann hätte ich gesagt, bist du bescheuert?

00:20:14.640 –> 00:20:15.840

Nee, also bei aller Liebe nicht.

00:20:15.840 –> 00:20:18.640

Ich sitze dann lieber draußen auf meiner Terrasse und gucke mir Bäume an.

00:20:18.640 –> 00:20:24.560

Und dieser Mensch hat das Thema, dieser Mignauf hat das Thema so aufbearbeitet mit einer Wahnsinnsbegeisterung,

00:20:24.560 –> 00:20:28.080

mit einer Simplifizierung, wie die Märkte verstehen.

00:20:28.080 –> 00:20:30.760

Einfach nur, und da muss man auch nicht studiert haben, sondern,

00:20:30.760 –> 00:20:33.760

dass wir einfach ab und zu unser normales Gehirn einschalten

00:20:33.760 –> 00:20:36.960

und wir da sehr, sehr viele Antworten bekommen.

00:20:36.960 –> 00:20:39.960

Und jetzt, was ich angedeutet habe, dann bin ich auch fertig.

00:20:39.960 –> 00:20:42.560

Was macht KI, bevor wir die Berufe aufzählen?

00:20:42.560 –> 00:20:45.360

KI sammelt Information,

00:20:45.360 –> 00:20:52.560

KI wird Informationen aufbereiten und KI wird auch Basisinformationen weiterleiten.

00:20:52.560 –> 00:20:56.920

Und wenn man das erstmal so stehen lässt, dann fällt einem nämlich ganz automatisch ein,

00:20:56.920 –> 00:21:02.080

welche Berufe davon betroffen werden können. Also Informationen sammeln, aufbereiten und weitergeben.

00:21:02.080 –> 00:21:06.840

Und auf die Berufe gehe ich jetzt erstmal nicht ein und freue mich, dass Jürgen auch mit dazu gekommen ist.

00:21:06.840 –> 00:21:10.320

Ja, großartig. Vielen, vielen lieben Dank.

00:21:10.320 –> 00:21:14.840

Und ich habe den Kontakt direkt heute hergestellt, jetzt über LinkedIn.

00:21:14.840 –> 00:21:18.360

Und er hat ja im Prinzip gestern schon zugesagt, zumindest mündlich.

00:21:18.360 –> 00:21:26.040

Jetzt schauen wir mal, dass wir den Kontakt herstellen und dass wir ihn zu einem Autoren-Frühstück oder Experten-Talk oder was auch immer dann einladen.

00:21:26.040 –> 00:21:37.880

Das heißt, wir haben natürlich gestern gleich mitgedacht und geschaut, dass wir die verschiedene Kontakte, die hier geknüpft werden, natürlich auch hier für die Community einfach nutzen und zugänglich machen.

00:21:37.880 –> 00:21:40.480

Und insofern bin ich gespannt. Drücken wir einfach mal die Daumen.

00:21:40.480 –> 00:21:43.360

Jürgen, einen wunderschönen guten Morgen. Was sagst du denn zu dem Thema?

00:21:43.360 –> 00:21:50.720

Einen wunderschönen guten Morgen, liebe Yasemin. Guten Morgen, lieber Marc und alle im Raum.

00:21:50.720 –> 00:21:54.440

Ja, ich hoffe, ich kriege das noch alles zusammen.

00:21:54.440 –> 00:22:00.400

Du hast so viele Trigger Points bei mir gesetzt durch deine Vorrede und auch du,

00:22:00.400 –> 00:22:04.240

lieber Marc, mit deiner Annäherung an das Thema über die KI.

00:22:04.240 –> 00:22:11.840

Ich werde mit meinem Statement mich von der anderen Seite nähern, nämlich von der Seite

00:22:11.840 –> 00:22:18.520

der Intelligenz. Und ich nähere mich oder platziere diesen Beitrag “Wofür?”, “Frage

00:22:18.520 –> 00:22:26.440

wofür?” im Sinne der Reduzierung der Komplexität. Und das war auch so ein Trigger, liebe Yasemin,

00:22:26.440 –> 00:22:33.600

von dir, dass ich sage, ja, es ist ein, es ist in Anführungsstrichen menschlich, dass man sehr

00:22:33.600 –> 00:22:41.640

oft sagt, auch in der Projektarbeit insbesondere, da ist jetzt nicht die Zeit dazu oder da ist noch

00:22:41.640 –> 00:22:48.360

nicht die Zeit dazu gekommen. Ich habe die Erfahrung gemacht, dass ein wesentlicher Einflussfaktor

00:22:48.360 –> 00:22:54.200

dafür, dieses zu sagen, die nicht überschaubare Komplexität ist.

00:22:54.200 –> 00:22:59.880

Und deswegen jetzt hoffentlich sichtbar den Gedankenfluss von mir.

00:22:59.880 –> 00:23:04.560

Wir sind uns darüber im Garen, dass das ein Riesenthema ist,

00:23:04.560 –> 00:23:08.480

dass, ich darf jetzt diesen Wunsch mal äußern, eigentlich ein

00:23:08.480 –> 00:23:12.200

Dachthema für mich wäre, weil es immens ist, auch von den

00:23:12.200 –> 00:23:14.200

Auswirkungen und von der Komplexität.

00:23:14.200 –> 00:23:22.060

Aber ich möchte in dem Sinne die Komplexität vielleicht von vornherein etwas reduzieren,

00:23:22.060 –> 00:23:28.780

an dem ich euch an ein anderes Dachthema erinnere, das wir hatten. Und zwar, wie so oft, Bildung.

00:23:28.780 –> 00:23:38.140

Ihr könnt euch erinnern, da sprachen wir über Lernen, über Sozialisation, über Wissen,

00:23:38.140 –> 00:23:48.060

über Intelligenz und Reflexion. Und wir waren im Verbund dessen zu dem Ergebnis gekommen,

00:23:48.060 –> 00:23:53.620

dass es eine allumfassende, allgemeingültige Definition der Intelligenz nicht gibt. Warum?

00:23:53.620 –> 00:24:01.620

Ich hätte zwar eine, aber das lasse ich jetzt mal hinten anstehen. Warum? Weil es nämlich die

00:24:01.620 –> 00:24:11.260

Intelligenz nicht gibt. Wir waren überein gekommen, vielleicht erinnert ihr euch, meistens identifizieren

00:24:11.260 –> 00:24:19.100

wir oder sehen wir Intelligenz als mathematische logische Kompetenz. Es gibt aber auch eine

00:24:19.100 –> 00:24:26.340

emotionale Intelligenz, die Leute befähigen zum Beispiel Pflegeberufe zu machen oder personelle

00:24:26.340 –> 00:24:38.180

Intelligenz, die Personen im weiteren Verlauf exponiert befähigen, zum Beispiel Führungspositionen

00:24:38.180 –> 00:24:44.340

einzunehmen oder kinesthetische, die prädestinierter Sportler oder Tänzer werden und, und, und.

00:24:44.340 –> 00:24:54.540

Also kann man noch etliches beifügen. Aber das Wichtige ist, es gibt mehrere Arten von

00:24:54.540 –> 00:25:02.340

Intelligenzen. Und meine Frage ist jetzt, wenn ich mir das Thema betrachte, welchen Einfluss hat die

00:25:02.340 –> 00:25:11.820

KI, die künstliche Intelligenz, auf die Arbeitswelt? Welche Intelligenz kann denn überhaupt oder ist

00:25:11.820 –> 00:25:23.700

vornehmlich einflussnehmend auf das Arbeitsumfeld, das wir haben? Mal ein ganz oder ein persönlicher,

00:25:23.700 –> 00:25:29.780

eine persönliche Meinung von mir. Ich sehe die KI durchaus im mathematisch-logischen Kontext

00:25:29.780 –> 00:25:36.620

als platzierbar und wahrscheinlich im Hauptaufmarschfeld der nächsten Jahre. Aber

00:25:36.620 –> 00:25:45.540

im kinesthetischen, das mag vielleicht lächerlich klingen, Sportler oder Artisten auf der Bühne,

00:25:45.540 –> 00:25:48.540

Das wird es nicht geben.

00:25:48.540 –> 00:25:53.540

Und insofern, lieber Mark, ist genau das, und du sprachst mir aus der

00:25:53.540 –> 00:25:58.540

Seele, genau dieses dem unreflektierten von vornherein mal

00:25:58.540 –> 00:26:03.540

mit einem Hype-Ausrufzeichen versehenden Aussagen,

00:26:03.540 –> 00:26:06.540

das wird die ganze Arbeitswelt verändern.

00:26:06.540 –> 00:26:11.540

No way, das behaupte ich jetzt mal nicht.

00:26:11.540 –> 00:26:18.420

Und meine Begründung dafür hoffe ich eben gegeben zu haben, weil Intelligenz unter ganz

00:26:18.420 –> 00:26:29.380

verschiedenen Facetten zu sehen ist. Und in Bezug auf die Ausgestaltung und die Entwicklung in der

00:26:29.380 –> 00:26:39.020

Zeit für die KI, da habe ich auch zum Teil sicherlich etwas diametrale Meinungen dazu,

00:26:39.020 –> 00:26:44.460

Aber das möchte ich jetzt erst mal hinten anstellen, ob wir überhaupt zu diesem Thema kommen.

00:26:44.460 –> 00:26:48.860

Also das mein erster Input zu diesem Thema.

00:26:48.860 –> 00:26:58.580

Reduzieren auf das, was überhaupt möglich ist und aus heutiger Sicht als wahrscheinlich erachtet werden.

00:26:58.580 –> 00:27:00.580

Ich glaube, das hilft. Vielen Dank.

00:27:00.580 –> 00:27:06.020

Ja, vielen, vielen lieben Dank und lass mich hier gerne noch mal kurz nachhaken,

00:27:06.020 –> 00:27:13.700

um auch sicherzustellen, dass wir dich richtig verstanden haben. Was genau in der Arbeitswelt

00:27:13.700 –> 00:27:18.980

verändert sich denn aus deiner Sicht nicht durch die KI? Vielleicht kannst du hier ein paar ganz

00:27:18.980 –> 00:27:27.220

konkrete Beispiele machen. Also, liebe Yasemin, ich habe sehr viel darüber gelesen, aber ich

00:27:27.220 –> 00:27:35.780

schwinge mich nicht auf, mir das Prädikat Experte da zuordnen zu wollen. Aber ein Ansatzpunkt für

00:27:35.780 –> 00:27:41.940

die gedankliche Auseinandersetzung für mich, du merkst, ich versuche mich etwas zurückzuziehen,

00:27:41.940 –> 00:27:54.440

ist die Klassifizierung nach Routine, wo ich durchaus eine, und jetzt bitte an meine vorher

00:27:54.440 –> 00:28:07.400

Ausführungen. Eine mathematisch logisch basierte KI wird sicherlich bei vielen Routinearbeiten eine

00:28:07.400 –> 00:28:12.920

Unterstützung, lieber Marc, ja schon mal Unterscheidung zwischen Unterstützung und

00:28:12.920 –> 00:28:22.680

Ersatz liefern können. Aber Routine hat zwei Aspekte. Es gibt eine geistige Routine und es

00:28:22.680 –> 00:28:27.960

Es gibt eine körperliche Routine, wie zum Beispiel Zähneputzen jeden Tag.

00:28:27.960 –> 00:28:40.000

Da tut sich für mich eigentlich schon mal die erste Verschlankung der Komplexität auf,

00:28:40.000 –> 00:28:49.560

indem ich sage, es werden ganz bestimmte geistige Routinen ersetzt werden können, wie zum Beispiel,

00:28:49.560 –> 00:28:52.200

was wir im Moment sehen, Daten sammeln.

00:28:52.200 –> 00:28:57.000

Ich habe im familiären Umkreis ein sehr gutes Beispiel,

00:28:57.000 –> 00:29:00.040

ich will es nicht zu lang werden lassen, weil ich habe gesehen,

00:29:00.040 –> 00:29:03.440

leider ist jetzt noch der Zug gekommen, aber der ist Partner in

00:29:03.440 –> 00:29:09.040

der Steuerkanzlei und das Gleiche gilt für Rechtsanwälte.

00:29:09.040 –> 00:29:14.280

Die Kernarbeit, um überhaupt zu einer individuellen Entscheidung zu

00:29:14.280 –> 00:29:17.600

kommen, ist das jetzt ein Steuervergehen, ja oder nein,

00:29:17.600 –> 00:29:22.800

Oder ist das ein Verbrechen oder eine Ordnungswidrigkeit und und und geht eine

00:29:22.800 –> 00:29:25.400

immense Datensammlung vorher.

00:29:25.400 –> 00:29:33.560

Und da sehe ich ganz wesentliche und jetzt mit Fragezeichen versehen

00:29:33.560 –> 00:29:39.720

Ersatzpotenzial oder Ergänzungspotenzial.

00:29:39.720 –> 00:29:41.720

Das wäre für mich überhaupt ein eigenes Thema.

00:29:41.720 –> 00:29:43.560

Aber das ist für mich ein Punkt.

00:29:43.840 –> 00:29:51.640

Und in Summe nochmal ganz klar, körperliche Routinen scheiden für mich insofern aus,

00:29:51.640 –> 00:29:54.800

obwohl ich könnte jetzt ein Beispiel bringen, aber das schenke ich mir jetzt.

00:29:54.800 –> 00:29:57.360

Die gibt’s auch schon von den Überlegungen her.

00:29:57.360 –> 00:30:00.680

Ich hoffe, ich habe dir deine Frage damit beantwortet.

00:30:00.680 –> 00:30:03.360

Ja, vielen, vielen lieben Dank.

00:30:03.360 –> 00:30:07.920

Und und da denke ich, bin ich jetzt mal total gespannt,

00:30:07.920 –> 00:30:11.520

auch was gleich nach Layla auch Marc vielleicht noch mit anschließen mag.

00:30:12.160 –> 00:30:18.480

Auch hier dürfen wir, finde ich, achtsam damit umgehen, dass wir eben nicht in entweder-oder

00:30:18.480 –> 00:30:24.960

denken, sondern wenn wir gerade diese Begriffe nochmal aufgreifen, Ersatzpotenzial oder Ergänzungspotenzial,

00:30:24.960 –> 00:30:27.760

dann haben wir ja Kettenreaktionen, die ausgelöst werden.

00:30:27.760 –> 00:30:32.840

Das heißt, in dem Moment, wo ich es als, sagen wir mal, mindestens Ergänzungspotenzial

00:30:32.840 –> 00:30:38.600

einsetze, ergibt sich ja daraus etwas, nämlich Folgendes, und das beobachten wir heute schon

00:30:38.600 –> 00:30:42.160

auch auf dem Arbeitsmarkt. Also es ist schon gestartet, das ist jetzt nichts Neues.

00:30:42.160 –> 00:30:46.480

Das in dem Moment, wo ich, und das war ja auch vorher schon so, nicht nur mit KI,

00:30:46.480 –> 00:30:50.320

sondern auch schon mit anderen Tools, in dem Moment, wo ich die Möglichkeit habe,

00:30:50.320 –> 00:30:56.720

das Potenzial zu ergänzen des Einzelnen, habe ich ja eine eine Wirkung, nämlich

00:30:56.720 –> 00:31:00.560

zum Beispiel, dass das Unternehmen sich überlegt, na ja gut, dann brauche ich

00:31:00.560 –> 00:31:04.560

aber in Zukunft vielleicht nicht mehr 100 Mitarbeiter, sondern nur noch 50

00:31:04.560 –> 00:31:10.880

Mitarbeiter, die dann die restliche Arbeit erledigen, weil dadurch, dass hier ein Ergänzungspotenzial

00:31:10.880 –> 00:31:17.920

gehoben wird sozusagen und damit kommen wir in der Kettenreaktion betrachtet, kommen wir

00:31:17.920 –> 00:31:23.280

auch in ein Ersatzpotenzial rein, was sich nicht ausweichen lässt.

00:31:23.280 –> 00:31:28.920

Allerdings, um dann eben jetzt auch wieder diese Negativemotionen rauszunehmen, gleichzeitig,

00:31:28.920 –> 00:31:34.200

auch wenn wir historisch betrachtet draufschauen, ist es ja nicht so, dass dann es sind zwar

00:31:34.200 –> 00:31:38.200

Es verschieben sich zwar Aufgaben, es verschieben sich Jobs und so weiter,

00:31:38.200 –> 00:31:42.200

oder wonach die Nachfrage auf dem Markt entsprechend dann da ist.

00:31:42.200 –> 00:31:48.200

Das bedeutet aber jetzt nicht unbedingt, dass das in der Kettenreaktion eine Massenarbeitslosigkeit

00:31:48.200 –> 00:31:51.200

oder sonst irgendwas auslösen muss. Und hier dürfen wir dann gerne nochmal diskutieren,

00:31:51.200 –> 00:31:54.200

was dann die Auswirkungen vielleicht auch sein werden.

00:31:54.200 –> 00:31:58.200

Aber zumindest, dass es halt eben in Zukunft andere Aufgaben geben wird,

00:31:58.200 –> 00:32:01.200

andere Schwerpunkte geben wird. Und es wird auch damit einhergehen,

00:32:01.200 –> 00:32:05.520

hergehen, dass Unternehmen tatsächlich, weil sie eben hier die Möglichkeit haben,

00:32:05.520 –> 00:32:10.260

auf weniger Mitarbeiter zu reduzieren, und das passiert heute auch schon, also dass tausende

00:32:10.260 –> 00:32:15.840

Mitarbeiter eben auch entlassen werden, weil zum Beispiel Banken entdeckt haben, naja,

00:32:15.840 –> 00:32:21.480

wir können ja einen Bankautomaten einsetzen, wir brauchen keinen Schalter, wir reduzieren

00:32:21.480 –> 00:32:24.720

durch das Online-Banking, und da sind wir jetzt noch nicht mal bei KI, sondern ganz

00:32:24.720 –> 00:32:29.280

allgemeine Automatisierungen, die in der Vergangenheit stattgefunden haben, die dazu führen, dass

00:32:29.280 –> 00:32:35.040

eben die Masse an Menschen in dieser Tätigkeit, in dieser speziellen Tätigkeit, die es vorher

00:32:35.040 –> 00:32:38.600

gegeben hat, so nicht mehr braucht. Dafür braucht es die aber vielleicht an anderer

00:32:38.600 –> 00:32:42.040

Stelle und das ist ja dann auch nochmal spannend darauf zu gucken. Jürgen, du wolltest noch

00:32:42.040 –> 00:32:43.040

was ergänzen dazu.

00:32:43.040 –> 00:32:51.800

Ich danke dir, dass ich da, sorry, liebe Layla, dass ich da nochmal Bezug, weil du hast einen

00:32:51.800 –> 00:32:57.480

zweiten Punkt, den ich vorhin benannt habe, das spar ich mir jetzt, vorweggenommen. Andere

00:32:57.480 –> 00:33:04.920

die vielleicht oder die dazu angetan sind, die Komplexität dieses Themas zu reduzieren. Und der

00:33:04.920 –> 00:33:10.640

Bankautomat ist zum Beispiel so eine Position, ist ja mein spezifischer Beritt, das Banking,

00:33:10.640 –> 00:33:15.400

dass ich auf einen Punkt komme, der ist für mich stellvertretend. Natürlich kannst du den

00:33:15.400 –> 00:33:22.000

Bankautomaten, der Bankautomat spuckt dir Geld aus, aber dem Bankautomaten kannst du nicht ins

00:33:22.000 –> 00:33:29.020

Gesicht schauen, in die Augen schauen und fragen, kann ich eigentlich dem Euro noch trauen? Das ist

00:33:29.020 –> 00:33:33.640

für mich das Thema, ich sage es jetzt mal so, einer Maschine kann man nicht in die Augen schauen

00:33:33.640 –> 00:33:43.840

und was, wenn wir nur noch Maschinen hätten, würden wir uns eine Eigenschaft sparen können,

00:33:43.840 –> 00:33:49.800

beziehungsweise die gäbe es nicht mehr, nämlich die aus der persönlichen Beziehung heraus auch

00:33:49.800 –> 00:33:57.200

im Geschäftsleben das basierende Vertrauen. Und der zweite wesentliche Punkt, auch noch mal bitte

00:33:57.200 –> 00:34:07.280

ein ganz starkes Petitum, nicht alles was möglich ist, ist auch ökonomisch sinnvoll. Das heißt,

00:34:07.280 –> 00:34:14.040

so brutal das jetzt klingt, es wird immer von Seiten eines Unternehmens die Abwägung geben,

00:34:14.040 –> 00:34:20.240

was ist denn billiger? Die Maschine, die künstliche Intelligenz oder der Mensch?

00:34:20.240 –> 00:34:28.680

Und je mehr Menschen ich habe, dadurch dass KI vielleicht viele Menschen freisetzt,

00:34:28.680 –> 00:34:35.040

umso billiger wird die Ressource Mensch und umso eher komme ich zur Entscheidung, bevor ich mir

00:34:35.040 –> 00:34:40.680

da ein hochkomplexes System von Algorithmen und notwendigen Datenbasen ins Haus schaffe,

00:34:40.680 –> 00:34:48.120

dann lasse ich doch das lieber händisch machen. Also danke nochmal, dass ich diesen Einwurf

00:34:48.120 –> 00:34:53.880

nochmal bringen durfte. Ja gerne und auch hier gibt es mit Sicherheit ganz spannende Aspekte

00:34:53.880 –> 00:34:57.920

zu diskutieren in diesem Zusammenhang. Da würde ich jetzt gerne erstmal Layla und Sabine mit

00:34:57.920 –> 00:35:00.920

einbinden und dann können wir ja gerne nochmal Querbezüge herstellen. Layla,

00:35:00.920 –> 00:35:04.720

einen wunderschönen guten Morgen. Einen wunderschönen guten Morgen. Ja,

00:35:04.720 –> 00:35:09.000

also ihr habt jetzt sehr sehr viele Gedanken genannt. Ich überlege jetzt gerade, wo ich

00:35:09.000 –> 00:35:13.560

anknüpfe. Ich fange ja mal an mit, also ich hoffe nicht, dass Sie überlegen, was

00:35:13.560 –> 00:35:16.600

billiger ist, weil ich habe auf dem Wirtschafts- Gymnasium mal gelernt, dass

00:35:16.600 –> 00:35:20.120

billig schlechte Qualität heißt und meine Lehrerin hat mir immer gesagt, ich

00:35:20.120 –> 00:35:29.160

soll sagen günstiger. Und auch hier glaube ich, dass wir, um jetzt mal wieder

00:35:29.160 –> 00:35:34.280

den Rahmen zu finden, dass es oftmals darum geht, ich glaube, wir haben sehr

00:35:34.280 –> 00:35:40.860

sehr sehr viele Narrative auch, was wir so gesehen haben in Sendungen. So, ah, was

00:35:40.860 –> 00:35:45.320

passiert denn mit KI? Ich überlege mir das jetzt praktisch gesehen, um jetzt zu

00:35:45.320 –> 00:35:51.700

einem Beispiel zu kommen, wie kann mir die KI die Arbeitswelt erleichtern? Ich

00:35:51.700 –> 00:35:55.520

habe die auch sehr genau zugehört, jetzt gerade was das Buch angeht. Ich fand das

00:35:55.520 –> 00:36:01.360

sehr interessant. Ich nutze das jetzt schon für die Arbeitswelt, dass ich mir

00:36:01.360 –> 00:36:05.280

Unterrichtsentwürfe, dass ich da Ideen einbringen lasse.

00:36:05.280 –> 00:36:10.160

Ja, natürlich werden manche Bereiche ersetzt und es wurde ja auch gesagt, der

00:36:10.160 –> 00:36:15.520

Bankautomat ist hier schon ein Fall. Ich kenne Informatiker, mit denen habe ich

00:36:15.520 –> 00:36:20.880

gesprochen, die arbeiten schon mit der Version von Chat GPT 4. Ich habe sie auch

00:36:20.880 –> 00:36:27.440

gefragt, ob sie Angst haben, ersetzt zu werden. Sie haben gesagt nein, weil das und das kann

00:36:27.440 –> 00:36:32.000

die KI nicht. Natürlich kann man sagen, sie entwickelt sich sehr schnell. Wenn ich jetzt

00:36:32.000 –> 00:36:38.680

von meinem Beruf ausgehe, ich bin ja Ethiklehrerin, das, was ich, jetzt überlege ich gerade, Yasemin,

00:36:38.680 –> 00:36:43.440

welche Quelle ich nennen darf, aber ich glaube, Dreisatz ist okay und Skobel ist ein anerkannter

00:36:43.440 –> 00:36:56.240

Philosoph. Eine KI hat keine Moral. Und sie hat noch keine Augen und sie hat noch keine Moral.

00:36:56.240 –> 00:36:59.840

Das ist ja dieses Trolley-Experiment, was man da irgendwie machen kann.

00:36:59.840 –> 00:37:04.360

Dass man sich so überlegt, was, was, oder dieses Bahnexperiment, dass man sich so

00:37:04.360 –> 00:37:09.960

überlegt, was, was kann ich denn? Nicht, was die KI nicht kann, wo kann ich nicht

00:37:09.960 –> 00:37:14.280

ersetzt werden, sondern auch, wo kann sie mich unterstützen? Und so möchte ich das

00:37:14.280 –> 00:37:22.560

eigentlich denken. Und ja, die Moral ist, ist, ist in ihr nicht angelegt. Und da kann

00:37:22.560 –> 00:37:30.840

man ihr auch nicht böse sein. Es ist nichts, was man ihr negativ zuschreiben kann. Du hast

00:37:30.840 –> 00:37:39.000

keine Moral. Nein, aber das ist etwas, was wir Menschen durchaus haben können. Und ja,

00:37:39.000 –> 00:37:43.520

auch die emotionale Intelligenz. Ich weiß jetzt gar nicht, ob das nur in Pflegerberufen so ist,

00:37:43.520 –> 00:37:48.240

sondern auch in sozialen Berufen. Emotionale Intelligenz brauchen ja auch Verkäufer. Wo

00:37:48.240 –> 00:37:54.400

Wo setze ich denn da an? Und ich glaube, das sind Punkte, die sehr positiv sind, wo ich sagen kann,

00:37:54.400 –> 00:38:01.000

als Unterstützung. Und ja, wir haben das schon, aber das ist ja auch ein Beschwerde der Hotlines.

00:38:01.000 –> 00:38:07.360

Wir reden so oft schon mit KIs, gerade wenn wir so einen Assistenten haben,

00:38:07.360 –> 00:38:12.360

also wenn wir jetzt irgendwie hier so eine Chatfunktion haben.

00:38:13.000 –> 00:38:18.000

Und hier, glaube ich, ist der Mensch zusätzlich.

00:38:18.000 –> 00:38:23.720

Also die KI sollte zusätzlich sein und nicht wir sollten der Zusatz sein.

00:38:23.720 –> 00:38:26.480

Und ja, Unternehmer überlegen so. Das stimmt.

00:38:26.480 –> 00:38:31.560

Ich hoffe, dass sie auch günstig denken.

00:38:31.560 –> 00:38:35.040

Was ist günstig? Was ist die Priorität?

00:38:35.040 –> 00:38:39.000

Und ja, wie schon gesagt, ich versuche mir meine Arbeitswelt

00:38:39.000 –> 00:38:43.880

dadurch erleichtern zu lassen und möchte da Menschen auch zuraten.

00:38:43.880 –> 00:38:48.560

Ich denke aber, dass es Bereiche gibt, wenn wir jetzt bei der Moral ansetzen, zum Beispiel

00:38:48.560 –> 00:38:53.400

Snapchat hat jetzt eine KI, die Kinder nutzen können.

00:38:53.400 –> 00:39:01.160

Und ja, da war ich ganz irritiert, wenn die KI dann sagt, schick mir ein Foto oder erzähl

00:39:01.160 –> 00:39:02.160

es nicht deinen Eltern.

00:39:02.160 –> 00:39:07.320

Das können wir der KI gar nicht vorwerfen, aber wir könnten den Machern vorwerfen.

00:39:07.320 –> 00:39:12.840

Warum benutzen Sie jetzt Kinder als Versuchsobjekt für diese KI?

00:39:12.840 –> 00:39:17.800

Und dann kann man natürlich sagen, die Gesetzeslage hat hier eine Lücke geboten.

00:39:17.800 –> 00:39:23.640

Aber ja, da ich bin jetzt nicht der Ethikrat der Welt,

00:39:23.640 –> 00:39:27.280

aber ja, das möchte ich einfach nur zu bedenken geben.

00:39:27.280 –> 00:39:30.400

Aber ich finde es interessant, toll und möchte mich unterstützen lassen.

00:39:30.400 –> 00:39:32.480

Danke fürs Zuhören.

00:39:32.480 –> 00:39:33.720

Ja, vielen, vielen lieben Dank.

00:39:33.800 –> 00:39:40.200

Und um an zwei Punkten jetzt nochmal anzudocken, um das aufzugreifen, was du gesagt hast, und

00:39:40.200 –> 00:39:42.000

dann zu Sabine rüber zu switchen.

00:39:42.000 –> 00:39:50.080

Einmal, ich gebe mal den Impuls rein, doch, die KI hat eine Moral, ganz provokant, ganz

00:39:50.080 –> 00:39:56.080

bewusst an der Stelle formuliert, nämlich die Moral, die wir ihr als Mensch zuordnen.

00:39:56.080 –> 00:39:59.520

Das heißt, es ist ja letztendlich ein programmiertes System.

00:39:59.520 –> 00:40:05.040

Und je nachdem, was wir definieren, was Moral ist und das Eingeben in die Maschine, wird

00:40:05.040 –> 00:40:06.880

sie danach auch agieren.

00:40:06.880 –> 00:40:08.840

Dementsprechend hat sie eine Moral.

00:40:08.840 –> 00:40:14.600

Nicht eine selbst erarbeitete vielleicht an der Stelle, aber eine, die wir ihr programmieren.

00:40:14.600 –> 00:40:20.000

Und da möchte ich gerne gleich nochmal anknüpfen, nämlich an den vielen Sorgen, die hier diskutiert

00:40:20.000 –> 00:40:21.000

werden.

00:40:21.000 –> 00:40:26.840

Ganz häufig, was ich höre, ist sowas wie, keine Ahnung, das verselbstständigt sich

00:40:26.840 –> 00:40:35.280

es gibt Diskriminierung oder Sonstiges auch hier noch mal zu sensibilisieren. Das Problem und

00:40:35.280 –> 00:40:43.000

zugleich auch die Lösung ist der Mensch und nicht der Roboter. Das heißt, wenn, also worauf greift

00:40:43.000 –> 00:40:49.680

dann die KI zurück? Auf die Daten, die wir hier einspeisen. Wenn in den Daten, die wir einspeisen,

00:40:49.680 –> 00:40:56.200

eben nur männliche Formen verwendet werden, wenn sowieso heute schon Diskriminierung in

00:40:56.200 –> 00:40:59.200

in unseren Texten stattfindet, in den Ausschreibungen,

00:40:59.200 –> 00:41:02.280

in den Auswahlprozessen, die wir machen und, und, und.

00:41:02.280 –> 00:41:04.320

Da sind wir bei dem Problem Mensch.

00:41:04.320 –> 00:41:08.240

Unconscious Bias, überall ist das dokumentiert.

00:41:08.240 –> 00:41:11.280

Das sind die Informationen, die hier eingespeist werden.

00:41:11.280 –> 00:41:13.240

Dann darf ich mich nicht wundern,

00:41:13.240 –> 00:41:17.160

wenn auch die KI hier diskriminiert,

00:41:17.160 –> 00:41:19.640

Unconscious Bias aufgreift usw.

00:41:19.640 –> 00:41:22.600

Und die Lösung, das möchte ich auch noch mal unterstreichen,

00:41:22.600 –> 00:41:24.600

ist gleichwohl auch wieder der Mensch.

00:41:24.680 –> 00:41:30.800

Denn wenn wir es schaffen, hier andere Dinge zu programmieren, uns darauf zu sensibilisieren,

00:41:30.800 –> 00:41:36.120

die Gefahren zu sehen, mit was auch immer, ob das Regulierungen sind, ob das ein Ethikrat

00:41:36.120 –> 00:41:40.400

ist, der darüber diskutiert oder was auch immer, dann können wir es auch schaffen,

00:41:40.400 –> 00:41:46.640

eben auch die Moral entsprechend so einzubauen, dass es nicht Gefahren, sondern Potenziale

00:41:46.640 –> 00:41:47.640

darstellt.

00:41:47.640 –> 00:41:48.640

Das ist mal das eine.

00:41:48.640 –> 00:41:51.880

Und das andere fand ich auch nochmal super, dass du das mit den Chatbots nochmal mit als

00:41:51.880 –> 00:41:52.880

Beispiel gebracht hast.

00:41:52.880 –> 00:41:57.200

Das heißt, das zeigt ja auch, wir nutzen das eben heute schon an ganz vielen Stellen,

00:41:57.200 –> 00:42:02.320

ohne dass es uns vielleicht bewusst ist, ob das jetzt Bankautomaten im Sinne der Automatisierung

00:42:02.320 –> 00:42:09.560

sind, die wir einsetzen, oder ob das Online-Banking ist im Sinne der Automatisierung, die wir

00:42:09.560 –> 00:42:10.720

nutzen und einsetzen.

00:42:10.720 –> 00:42:18.240

Das sind jetzt keine klassischen KI-gestützten Tools, aber allein schon die Automatisierung,

00:42:18.240 –> 00:42:23.680

die es ja in den letzten Jahren gab, die zeigt ja, das ist ja auch das, was viele Menschen

00:42:23.680 –> 00:42:24.680

eben wollen.

00:42:24.680 –> 00:42:29.040

Es setzt sich ja auch deswegen durch, weil, nur mal als Beispiel, Menschen eben nicht

00:42:29.040 –> 00:42:36.720

bereit sind, dafür, dass Menschen irgendwo sitzen am Schalter, ja, Bankgebühren zu zahlen.

00:42:36.720 –> 00:42:41.400

Jeder von uns guckt, wenn es darum geht, wo bekomme ich eben auch ein Girokonto, das

00:42:41.400 –> 00:42:42.400

kostenfrei ist.

00:42:42.400 –> 00:42:47.280

Und gleichzeitig sagen wir dann aber, nee, damit sind wir irgendwie nicht einverstanden,

00:42:47.280 –> 00:42:52.440

Problemen gesellschaftlich gesehen, aber weil der Nutzen eben auf dem Markt gegeben ist und weil das

00:42:52.440 –> 00:42:58.040

für uns bequem ist, Onlinebanking zu nutzen, entscheiden wir uns am Ende dann doch für das

00:42:58.040 –> 00:43:02.560

Onlinebanking. Und so ähnlich ist es eben mit diesen ganzen KI-gestützten Tools, dass es nicht

00:43:02.560 –> 00:43:07.320

daran vorbeiführt, dass sich das eben in der Marktdurchdringung jetzt an der Stelle sozusagen

00:43:07.320 –> 00:43:14.360

auch durchsetzen wird. Zu dem Aspekt ganz kurz nochmal “billig” in Anführungsstrichen oder

00:43:14.360 –> 00:43:20.360

schlechte Qualität. Auch wenn es vielleicht von der Denke her Sinn macht, zu sagen, naja,

00:43:20.360 –> 00:43:24.720

wenn die Ressource Mensch günstiger wird, dann kann ich ja als Unternehmen auch überlegen,

00:43:24.720 –> 00:43:30.400

ob ich jetzt Ressource Mensch lieber der KI bevorzuge. Da entgegne ich jetzt nochmal als

00:43:30.400 –> 00:43:38.440

Impuls zu sagen, naja, aber wer hat dann weniger Fehlerpotenzial? Also wenn wir uns angucken,

00:43:38.440 –> 00:43:44.120

mit welchen Daten und mit welcher Hochgeschwindigkeit hier Ergebnisse produziert werden.

00:43:44.120 –> 00:43:49.280

Ich rede jetzt nicht von den Anteilen, die nur der Mensch bewältigen kann und die KI

00:43:49.280 –> 00:43:52.560

nicht erfüllen kann, sondern von den Dingen, die ich der KI abgeben kann.

00:43:52.560 –> 00:43:58.720

Dann im Sinne des Ergebnisses, was hier rauskommt in einer bestimmten Geschwindigkeit.

00:43:58.720 –> 00:44:02.720

Und das wird ein Mensch nicht erfüllen können, Punkt, aus meiner Sicht.

00:44:02.720 –> 00:44:05.760

Also wenn wir jetzt mal als Beispiel die Medizin nehmen.

00:44:05.760 –> 00:44:10.960

Wenn ich eben einen Mediziner habe, der eine Diagnose stellen soll, dann kann er eben nur

00:44:10.960 –> 00:44:14.720

auf seinen Erfahrungsschatz, nur in Anführungsstrichen auf seinen Erfahrungsschatz und auf sein Wissen

00:44:14.720 –> 00:44:21.440

zurückgreifen, während die KI hier auf das Wissen zurückgreift und auch auf Erfahrungsschatz

00:44:21.440 –> 00:44:27.360

zurückgreift von allen möglichen Medizinern in dem Bereich und Dinge erkennen kann, die

00:44:27.360 –> 00:44:32.120

ein sehr guter Mediziner auch heute schon nicht mehr identifizieren kann und schon gar

00:44:32.120 –> 00:44:33.760

nicht in dieser Hochgeschwindigkeit.

00:44:33.760 –> 00:44:37.900

Also deswegen müsste man hier wirklich auch nochmal in Richtung Fehlerpotenziale und

00:44:37.900 –> 00:44:41.980

sowas denken und nicht nur nach was ist günstiger in Anführungsstrichen.

00:44:41.980 –> 00:44:46.540

Gleichwohl kommt dann aber natürlich die Problematik auf, dass ich überlegen muss,

00:44:46.540 –> 00:44:47.540

geht es immer nur um günstig?

00:44:47.540 –> 00:44:51.940

Was macht das marktwirtschaftlich, volkswirtschaftlich und so weiter?

00:44:51.940 –> 00:44:53.860

Das ist ja der nächste Aspekt.

00:44:53.860 –> 00:44:58.740

Denn wenn theoretisch jetzt mal, wenn man es spinnen würde und nicht davon ausgehen

00:44:58.740 –> 00:45:02.580

würde, dass sich neue Aufgaben ergeben, sondern dass wirklich hier Massenarbeitslosigkeit

00:45:02.580 –> 00:45:07.580

entstehen würde, nur mal angenommen, wenn wir diese Option mal durchspielen, dann würde das ja bedeuten,

00:45:07.580 –> 00:45:12.480

dass die Menschen keine Kaufkraft mehr haben. Und das wiederum hat ja dann auch in der Kettenreaktion

00:45:12.480 –> 00:45:17.480

betrachtet Auswirkungen auf die Unternehmungen. Das heißt, wir kommen hier in einen Kreislauf rein,

00:45:17.480 –> 00:45:23.280

den wir auch nicht als toll ansehen dürfen, sondern hier macht es wirklich Sinn, auch in Kettenreaktionen

00:45:23.280 –> 00:45:28.280

zu denken und auch zu überlegen, was sind denn Lösungen. Und Lösungen könnten, nur mal als Beispiel,

00:45:28.280 –> 00:45:33.080

könnte man ja auch überlegen, wenn Unternehmen in Zukunft weniger Mitarbeiter beschäftigen,

00:45:33.080 –> 00:45:38.320

vielleicht gibt es dann Steuern für die Unternehmen, die KI einsetzen. Das heißt,

00:45:38.320 –> 00:45:42.160

irgendwoher muss ja auch dieses Geld wieder beschafft werden, um dieses System auch wieder

00:45:42.160 –> 00:45:46.440

auf den Beinen zu halten. Also hier gibt es viele, viele Denkmöglichkeiten und viele Richtungen,

00:45:46.440 –> 00:45:51.680

die wir laufen können. Und deswegen ist es ja auch ein Raum zum Gedanken jonglieren,

00:45:51.680 –> 00:45:55.880

sozusagen. Das heißt, nichts ist ausgeschlossen und verschiedene Optionen einfach mal aufzumachen

00:45:55.880 –> 00:45:59.160

machen und durchzudenken, ist denke ich das Beste, was wir in diesem Zusammenhang

00:45:59.160 –> 00:46:03.360

tun können, um einfach uns mal zu sensibilisieren, in welche Richtung kann

00:46:03.360 –> 00:46:06.920

das Ganze denn auch laufen. Sabine, einen wunderschönen guten Morgen, vielen Dank

00:46:06.920 –> 00:46:14.360

für deine Geduld. Wow, guten Morgen zusammen. Also ich weiß nicht, ob ich alle Punkte noch zusammenkriege.

00:46:14.360 –> 00:46:19.800

Zum ersten Mal, ich gehöre sicherlich zu den Zauberern, ich oute mich hiermit. Zum

00:46:19.800 –> 00:46:25.640

anderen, das Messen mit dem Geldautomaten, da wollte ich ein kleines Beispiel geben.

00:46:25.640 –> 00:46:27.880

Ich arbeite mit der Volksbank zusammen.

00:46:27.880 –> 00:46:29.520

Die sind schon drei Schritte weiter.

00:46:29.520 –> 00:46:34.080

Die sind im ländlichen Bereich und haben nicht nur einen Geldautomaten,

00:46:34.080 –> 00:46:35.800

sondern wenn man da reinkommt…

00:46:35.800 –> 00:46:37.680

Ich habe den Namen leider vergessen.

00:46:37.680 –> 00:46:39.560

Da kommt hier der Bildschirm auf.

00:46:39.560 –> 00:46:43.920

Und dann entscheidet eine junge Dame und die unterhält sich.

00:46:43.920 –> 00:46:47.880

Und das haben sie geprüft und sind damit sehr gut angekommen.

00:46:47.880 –> 00:46:54.120

Also das 0815-Schaltergeschäft wird inzwischen von der Dame erledigt.

00:46:54.280 –> 00:46:58.120

Und die geht dann weiter in ein Callcenter.

00:46:58.120 –> 00:47:01.080

In dem Moment, wo es bei ihr scheitert,

00:47:01.080 –> 00:47:04.280

sagt sie dann einfach, ich gehe dann gerade mal an die Kollegin weiter.

00:47:04.280 –> 00:47:07.640

Also so weit entfernt sind wir da überall nicht mehr.

00:47:07.640 –> 00:47:10.920

Was ich noch zu bedenken gebe, ist einfach,

00:47:10.920 –> 00:47:13.400

ich versuche ungefähr seit vier Wochen,

00:47:13.400 –> 00:47:15.720

mich bei einer Bausparkasse persönlich,

00:47:15.720 –> 00:47:19.240

also ich bin schon legitimiert, mein Mann für unseren minderjährigen Sohn,

00:47:19.240 –> 00:47:21.640

ja, du kannst Postagent machen.

00:47:21.640 –> 00:47:26.360

Bei der Post, in Mannheim haben leider beide Postoffices zugemacht.

00:47:26.360 –> 00:47:28.360

DHL übernimmt es nicht mehr.

00:47:28.360 –> 00:47:32.320

Ich habe inzwischen mit allen, die ich kenne, gesprochen,

00:47:32.320 –> 00:47:35.120

wir schicken Ihnen neuen Link für Videoerdenkung.

00:47:35.120 –> 00:47:37.120

Funktioniert nicht.

00:47:37.120 –> 00:47:40.280

Was ich damit einfach nur sagen will, der Linksachternent,

00:47:40.280 –> 00:47:42.640

nämlich, Sie sind bereits legitimiert.

00:47:42.640 –> 00:47:46.400

Das heißt, in dem Moment, wo ich das Ganze einsetze,

00:47:46.400 –> 00:47:49.840

muss ich natürlich hinter den Kulissen Sorge dafür tragen,

00:47:49.840 –> 00:47:54.820

dass es auch funktioniert. Aber das hat ja nichts mit KI zu tun, das ist ja mit der

00:47:54.820 –> 00:47:58.420

gesamten Technik. Also nicht den zweiten Schritt, sondern den ersten Schritt machen.

00:47:58.420 –> 00:48:06.260

Was ich noch sagen wollte, was wollte ich noch sagen? Ach ja, Chat GPT, nein Quatsch,

00:48:06.260 –> 00:48:15.340

wie heißt das jetzt, was die Layla vorhin sagte, dieses Tool, was jetzt auch, was meine

00:48:15.340 –> 00:48:20.920

Kinder auch verwenden, nur mit den

00:48:20.920 –> 00:48:25.080

Kindern verwende. Und da bin ich ein

00:48:25.080 –> 00:48:26.760

bisschen Laylas Meinung. Natürlich ist

00:48:26.760 –> 00:48:28.240

da irgendein Mensch dahinter, der das

00:48:28.240 –> 00:48:30.760

programmiert und sagt, schick mir das

00:48:30.760 –> 00:48:33.200

Foto hin und schick mir das. Aber das ist

00:48:33.200 –> 00:48:37.320

ja ein bisschen die Gefahr. Ich gebe hier

00:48:37.320 –> 00:48:39.240

Yasemin völlig recht, der VKI kann

00:48:39.240 –> 00:48:42.320

nichts, was wir ihr nicht weitergeben und

00:48:39.240 –> 00:48:47.400

was wir nicht implementieren. Aber das Darknet ist ja dann in dem Moment auch aktiv. Und wer

00:48:47.400 –> 00:48:52.560

sorgt dafür, dass das Richtige an die weitergegeben wird und nicht das Falsche? Das würde mich schon

00:48:52.560 –> 00:48:57.040

noch mal interessieren. Ansonsten hatte ich noch einen vierten Punkt, den habe ich aber leider

00:48:57.040 –> 00:49:02.800

vergessen. Vielen Dank. Kommt bestimmt wieder. Ja, vielen, vielen lieben Dank. Und damit möchte

00:49:02.800 –> 00:49:06.480

ich gerne noch mal die Gelegenheit geben, wirklich auch Querbezüge herzustellen. Mark,

00:49:06.480 –> 00:49:08.480

Du hattest dich gemeldet und dann gerne Jürgen.

00:49:08.480 –> 00:49:11.960

Ja, da möchte ich sofort darauf eingehen, liebe Sabine.

00:49:11.960 –> 00:49:15.600

Ganz aktuell habe ich gelesen, genau aus diesem Grund, wer kontrolliert das?

00:49:15.600 –> 00:49:20.120

Hat Italien, GPT zurzeit gesperrt, weil sie gesagt hat, es ist überhaupt nicht

00:49:20.120 –> 00:49:23.880

ersichtlich, was mit diesen Datenanfragen gemacht werden,

00:49:23.880 –> 00:49:26.240

wie die Daten verarbeitet werden, wo die landen?

00:49:26.240 –> 00:49:28.640

Da habe ich dann einen kurzen Moment drüber nachgedacht und dachte, okay,

00:49:28.640 –> 00:49:31.160

die andere große Suchmaschine, die wir täglich benutzen,

00:49:31.160 –> 00:49:32.280

was sammelt die denn für Daten?

00:49:32.280 –> 00:49:34.440

Also es wird nur eine Frage der Zeit sein, bis das auch

00:49:35.280 –> 00:49:39.960

wieder sich erledigt hat. Dann möchte ich noch sagen, ergebnisorientiert. Wir haben

00:49:39.960 –> 00:49:43.120

über Menschen gesprochen und da sollte uns auch klar sein, wenn wir ein

00:49:43.120 –> 00:49:45.800

Unternehmen haben, dass ergebnisorientiert arbeiten. Bei einem

00:49:45.800 –> 00:49:50.160

Bewerbungsgespräch zählen 60 bis 80 Prozent Sympathie. Das heißt nicht mal

00:49:50.160 –> 00:49:54.280

die Zeugnisse, sondern die Sympathie. Und in der Diskussion, das ist jetzt ohne

00:49:54.280 –> 00:49:57.360

Bewertung, ist es ja eigentlich ein Wahnsinn, dass Chefs und Unternehmen

00:49:57.360 –> 00:50:02.360

Menschen nach Sympathie einstellen und nach ihren Fähigkeiten. Und dann das

00:50:02.360 –> 00:50:05.600

zweite ist die Verantwortung, den Begriff haben wir noch nicht gefallen, genau, weil wir

00:50:05.600 –> 00:50:10.400

diese Dinge jetzt alle besprechen, was da auf uns zukommt, muss es da eine

00:50:10.400 –> 00:50:14.120

Verantwortung geben, wie wir mit Daten umgehen und und und, wer kontrolliert die

00:50:14.120 –> 00:50:18.240

Daten, was hat das für Auswirkungen und zum Thema günstig als Unternehmer muss

00:50:18.240 –> 00:50:21.160

ich noch sagen, ich nenne jetzt die Automobilmarke nicht, es gibt natürlich

00:50:21.160 –> 00:50:24.760

auch Unternehmer, die ganz ganz andere Schritte machen, die einfach sagen, wollen

00:50:24.760 –> 00:50:28.840

wir überhaupt noch den günstigen Markt haben? Nein, der Markt der Superreichen ist

00:50:28.840 –> 00:50:32.040

viel interessanter und im Automobilbereich gibt es also speziell eine

00:50:32.040 –> 00:50:36.360

Automarke, die gesagt hat, wir verkaufen für uns sind Autos interessant ab 130,

00:50:36.360 –> 00:50:42.120

150.000 Euro und es gibt einfach in Saudi-Arabien und Dubai Leute, die kaufen

00:50:42.120 –> 00:50:45.440

sich da gleich zehn davon in verschiedenen Farben. Damit verdienen die

00:50:45.440 –> 00:50:49.240

Geld. Das heißt diesen Massen- und Billigmarkt, den verlassen gerade einige

00:50:49.240 –> 00:50:52.280

uns bekannte Firmen, weil die sagen, mit diesem Massenmarkt verdienen wir gar kein

00:50:52.280 –> 00:50:56.040

Geld mehr. Wir konzentrieren uns auf den Premiummarkt. Das hat dann natürlich auch

00:50:56.040 –> 00:50:59.800

wieder zum Vorteil, wenn man einen Premium-Markt hat, muss natürlich die

00:50:59.800 –> 00:51:03.480

Qualität, dann sind wir wieder bei der Qualität, super top sein, sonst kriegt

00:51:03.480 –> 00:51:08.220

man natürlich nicht ein Auto für 120 oder noch mehr 150.000 Euro verkauft. Und

00:51:08.220 –> 00:51:12.680

das ist total spannend, wie bei jedem Thema, egal wie wir hingucken, jeder von

00:51:12.680 –> 00:51:16.840

uns findet die Antworten, aber ich bin der Meinung, was der Jürgen auch gesagt

00:51:16.840 –> 00:51:20.040

hat, nicht mit Panik mache, sondern einfach mit einem ganz objektiven

00:51:20.040 –> 00:51:24.640

Auseinandersetzung, mit der Faktenprüfung und wenn man sich damit

00:51:24.640 –> 00:51:29.200

wirklich beschäftigt mit dieser KI, ist die Mehrheit der Untersuchungen, die man

00:51:29.200 –> 00:51:32.660

gerade finden kann im Netz, dass man davon ausgeht, dass es eher zu einer

00:51:32.660 –> 00:51:37.500

Umstrukturierung kommen kann, statt zu einer Massenentlastung. Obgleich es

00:51:37.500 –> 00:51:41.320

natürlich auch sein kann, dass es natürlich bestimmte, natürlich fallen

00:51:41.320 –> 00:51:44.160

Arbeitsplätze auch weg. Eine Umstrukturierung kann natürlich, das war

00:51:44.160 –> 00:51:48.140

der Punkt von Yasemin, auch bedeuten, dass es für bestimmte Menschen so in einer

00:51:48.140 –> 00:51:51.520

Firma Jobs nicht mehr gibt, die sie bisher gemacht haben, dass sie in andere

00:51:51.520 –> 00:51:55.000

Jobs gehen und dass dann wieder was passiert, was wir auch schon als Thema

00:51:55.000 –> 00:51:58.100

hatten, dass man dann für diese anderen Jobs dann eben vielleicht weniger

00:51:58.100 –> 00:52:01.240

entlohnt wird, wenn man nicht die Bildung hat. Auch das Thema hatten wir schon mal.

00:52:01.240 –> 00:52:06.040

Bildung wird ein ganz wichtiges Thema, denn wenn man in KI, in der KI

00:52:06.040 –> 00:52:10.040

beschäftigt sein möchte, also sei es für Programmierung oder Herstellung, dann

00:52:10.040 –> 00:52:12.960

braucht man eine bestimmte Bildung. Das wird nicht gehen, wenn man nicht lesen

00:52:12.960 –> 00:52:16.960

kann. Und da sieht man wieder, da sind wir wieder beim Thema Komplexität und

00:52:16.960 –> 00:52:19.880

wahrscheinlich reicht nicht ein Raum zu dem Thema, sondern wir können bestimmt

00:52:19.880 –> 00:52:22.880

locker fünf bis zehnmal so einen Raum machen zum Thema KI.

00:52:22.880 –> 00:52:29.280

Ja, mit Sicherheit. Und bevor ich jetzt noch mal zu Jürgen komme, dann Layla und dann Sabine,

00:52:29.280 –> 00:52:33.600

möchte ich gerne noch mal ganz kurz diesen Bildungsbegriff aufgreifen, denn das war ja

00:52:33.600 –> 00:52:40.280

auch mitunter eines der Themen beim Autoren-Frühstück mit Dr. Franz Hütter an der Stelle. Übrigens

00:52:40.280 –> 00:52:45.560

sehr lohnenswert wirklich auch reinzuhören, denn anzunehmen, dass hier jetzt keine Jobs

00:52:45.560 –> 00:52:49.560

gestrichen werden, wäre einfach eine Illusion an der Stelle.

00:52:49.560 –> 00:52:51.560

Das hat eine gewisse Naivität.

00:52:51.560 –> 00:52:54.560

Also hier werden definitiv Jobs gestrichen.

00:52:54.560 –> 00:52:56.560

Punkt. Das wird kommen.

00:52:56.560 –> 00:52:58.560

Und das ist auch schon am Laufen.

00:52:58.560 –> 00:53:01.560

Also verschiedene Unternehmen auch heute schon.

00:53:01.560 –> 00:53:04.560

Also Namen möchte ich jetzt mal weglassen,

00:53:04.560 –> 00:53:06.560

weil ich nicht genau weiß, ob es schon kommuniziert ist.

00:53:06.560 –> 00:53:11.560

Aber ein großes Unternehmen ist gerade dabei,

00:53:11.560 –> 00:53:13.560

10.000 Stellen zu streichen.

00:53:13.560 –> 00:53:16.280

unter anderem wegen KI-Nutzung und so weiter.

00:53:16.280 –> 00:53:19.920

Und viele andere Unternehmen, auch im Mittelstand übrigens,

00:53:19.920 –> 00:53:23.320

also auch kleine Unternehmen und mittelständische Unternehmen,

00:53:23.320 –> 00:53:25.240

die sich damit schon befasst haben,

00:53:25.240 –> 00:53:29.760

stellen weniger ein oder streichen Stellen.

00:53:29.760 –> 00:53:32.040

D.h. das ist schon am Rollen.

00:53:32.040 –> 00:53:34.120

Und viele sind noch gar nicht aufgewacht.

00:53:34.120 –> 00:53:36.240

D.h. hier wird noch ganz, ganz viel passieren.

00:53:36.240 –> 00:53:38.520

Aber ich möchte das gar nicht negativ darstellen,

00:53:38.520 –> 00:53:40.920

sondern, und da sind wir bei diesem Bildungsaspekt,

00:53:41.000 –> 00:53:45.520

Es wird deutlich, dass wir bestimmte übergeordnete Skills brauchen,

00:53:45.520 –> 00:53:48.640

über dieses reine Wissen hinaus, sozusagen,

00:53:48.640 –> 00:53:50.920

was bisher uns ja vielleicht an der Stelle

00:53:50.920 –> 00:53:52.600

auch ein Stück weit mit ausgemacht hat,

00:53:52.600 –> 00:53:56.760

unabhängig von auch diesen emotionalen Kompetenzen und so weiter.

00:53:56.760 –> 00:53:58.440

Und da kann man ja auch mal drauf schauen.

00:53:58.440 –> 00:54:00.680

Also es wird ja auch im therapeutischen Bereich schon…

00:54:00.680 –> 00:54:04.680

Es ist Wahnsinn, was hier bahnbrechend mit der KI entwickelt wird,

00:54:04.680 –> 00:54:07.920

dass eben auch therapeutische Settings jetzt kreiert werden,

00:54:07.920 –> 00:54:10.720

die durch KI durchgeführt werden.

00:54:10.800 –> 00:54:12.960

Weil es zum Beispiel nicht genug Therapeuten gibt.

00:54:12.960 –> 00:54:17.400

Weil es… Oder eine Telefonseelsorge oder so was, KI gestützt,

00:54:17.400 –> 00:54:19.920

das ist der Hammer, was hier alles am Kommen ist gerade.

00:54:19.920 –> 00:54:24.000

Und hier nicht anzunehmen, so nach dem Motto, das funktioniert nicht.

00:54:24.000 –> 00:54:25.280

Also wenn ich die Wahl habe,

00:54:25.280 –> 00:54:28.600

zwischen ich muss sechs Monate oder ein Jahr auf einen Therapeuten warten,

00:54:28.600 –> 00:54:32.400

oder ich nehme die KI als Therapiemöglichkeit,

00:54:32.400 –> 00:54:35.800

ja, was ist denn für den, der vielleicht suizidgefährdet ist, besser?

00:54:35.800 –> 00:54:38.920

Also auch mal aus dieser Perspektive zu sehen,

00:54:39.000 –> 00:54:42.080

Hier sind ganz viele Chancen, die wir aufgreifen können,

00:54:42.080 –> 00:54:45.680

sowohl als Unternehmen als auch individuell betrachtet

00:54:45.680 –> 00:54:47.920

und auch gesellschaftlich betrachtet.

00:54:47.920 –> 00:54:49.960

Denn das ist ja auch eine politische Diskussion,

00:54:49.960 –> 00:54:53.520

die wir hier gerade führen, auch mit Fachkräften aus dem Ausland usw.,

00:54:53.520 –> 00:54:56.200

was ja auch Vor- und Nachteile mit sich bringt.

00:54:56.200 –> 00:54:57.880

Und gleichwohl eben zu sehen,

00:54:57.880 –> 00:55:02.040

welche Rolle jetzt plötzlich auch der Bildung wieder mit zukommt.

00:55:02.040 –> 00:55:05.520

Nämlich, wir sind bei dem Aspekt der Schlüsselqualifikation,

00:55:05.520 –> 00:55:07.720

der übergeordneten Qualifikation.

00:55:07.800 –> 00:55:12.360

Hier muss ganz, ganz schnell und ganz intensiv auch begleitet werden.

00:55:12.360 –> 00:55:17.560

Das heißt, die Anforderungen, eben auch mit Komplexität umzugehen und und und

00:55:17.560 –> 00:55:19.040

werden wichtiger denn je.

00:55:19.040 –> 00:55:22.800

Sie waren jetzt auch schon wichtig, aber gerade jetzt auch mit Ungewissheiten,

00:55:22.800 –> 00:55:24.760

Spannungsfeldern, Dilemmata und so weiter.

00:55:24.760 –> 00:55:27.360

Das wird ganz, ganz wichtig.

00:55:27.360 –> 00:55:31.600

Und da eben nur Wissensvermittlung zu betreiben in vielen Institutionen hilft

00:55:31.600 –> 00:55:33.600

uns überhaupt nicht weiter an dieser Stelle.

00:55:33.840 –> 00:55:39.720

Der reine Qualifizierungsgedanke ist einfach ad acta zu legen.

00:55:39.720 –> 00:55:44.240

Und hier neu zu denken, umzudenken und vor allem auch ins Handeln zu kommen,

00:55:44.240 –> 00:55:48.520

finde ich, ein unwahrscheinlich wichtiger Aspekt, um eben Selbstbestimmung,

00:55:48.520 –> 00:55:56.640

Selbstorganisation und Selbstwirksamkeit auch langfristig herzustellen oder wiederherzustellen.

00:55:56.640 –> 00:55:57.640

Jürgen.

00:55:57.640 –> 00:56:04.000

Ihr könnt mich jetzt leider nicht grinsen sehen, aber es ist Wasser auf die Mühlen,

00:56:04.000 –> 00:56:11.240

insbesondere natürlich immer die Qualität deiner Zusammenführung, aber heute die Länge

00:56:11.240 –> 00:56:19.240

der Ausführungen, wie komplex dieses Thema ist und ja, lieber Marc, ich hatte das am Anfang schon

00:56:19.240 –> 00:56:23.840

Positioniert. Dieses Thema wäre wirklich eines Dachthemas wert.

00:56:23.840 –> 00:56:30.640

Und danke für deinen Input, dass im Hinblick auf, was ich angeführt

00:56:30.640 –> 00:56:34.840

habe, im Hinblick einer Maschine in die Augen schauen, Vertrauen geht

00:56:34.840 –> 00:56:39.640

verloren. Das sehe ich genauso spiegelbildlich für die

00:56:39.640 –> 00:56:45.740

Führungsqualität beziehungsweise für das Thema Verantwortung. Eine

00:56:45.740 –> 00:56:51.360

Maschine Verantwortung übernehmen für die Richtigkeit, für die Wahrheit, für die

00:56:51.360 –> 00:56:58.420

Lernfähigkeit und da bin ich jetzt beim nächsten Thema, was glaube ich auch einer

00:56:58.420 –> 00:57:04.140

Komplexitätshygiene sehr gut täte, wenn man sich klar werden würde, was ist

00:57:04.140 –> 00:57:08.980

eigentlich der Unterschied zwischen Automatisierung, zwischen Maschinen

00:57:08.980 –> 00:57:15.500

lernen und künstlicher Intelligenz. Also mit Hinblick in Endausbaustufe, Richtung

00:57:15.500 –> 00:57:19.300

Abbildung von neuronalen Netzwerken, wie es unser Gehirn hat.

00:57:19.300 –> 00:57:23.500

Also das ist auch, und ich komme immer wieder auf den Punkt,

00:57:23.500 –> 00:57:28.300

eigentlich ein viel zu komplexes Thema, um nicht daraus ein Dach zu machen.

00:57:28.300 –> 00:57:31.300

Und ganz zum Schluss noch eine launige Bemerkung,

00:57:31.300 –> 00:57:38.300

weil es wohl Widerstände gegen den Begriff Billig gibt.

00:57:38.300 –> 00:57:47.540

In der Ökonomie oder in der Wirtschaft gibt es wohl eine Unterscheidung. Deswegen gibt es auch

00:57:47.540 –> 00:57:55.900

die Begriffe zwischen billig und günstig. Da gibt es eine ganz vehemente Unterschiedlichkeit. Ich

00:57:55.900 –> 00:58:01.060

möchte jetzt aber die Einzelheiten nicht ersparen, aber wer das wissen will, dem lege ich das gerne

00:58:01.060 –> 00:58:08.980

Vielen Dank. Ja, super. Vielen, vielen lieben Dank. Layla. Ja, ich komme mir heute ein bisschen

00:58:08.980 –> 00:58:16.620

vor wie der Advokat Diaboli und möchte mich zunächst deswegen erstmal bedanken, weil dem

00:58:16.620 –> 00:58:24.700

ist nicht so, Yasemin, für deinen Impuls. Weil der Impuls war ja, eine KI hat nicht keine Moral. Und

00:58:24.700 –> 00:58:30.620

das finde ich gut, weil Sprache ist sehr wichtig und die schafft ja auch Realitäten. Nee, sie hat

00:58:30.620 –> 00:58:36.260

dem Moral des Programmierers. Und das sehen wir. Und das sind halt Diskussionen,

00:58:36.260 –> 00:58:41.620

die kommen schon beim autonomen Fahren. Und da könnt ihr gerne, also das heißt

00:58:41.620 –> 00:58:47.500

“The Moral Machine”, das ist von der Harvard University. Macht das mal und guckt euch

00:58:47.500 –> 00:58:50.540

das mal an. Da müsst ihr Entscheidungen treffen. Und die sind sehr komplex und die

00:58:50.540 –> 00:58:56.260

fallen uns allen schwer. Was ich sagen möchte, ist, ich bin sehr positiv der KKI

00:58:56.260 –> 00:59:04.460

gegenüber gestimmt. Das ist so. Und trotzdem ist es so, dass ich sage, sie hat die Moral

00:59:04.460 –> 00:59:09.700

des Programmierers und hier stecken wirtschaftliche Interessen dahinter. Das ist einfach das,

00:59:09.700 –> 00:59:16.060

was mir auffällt. Und das fällt mir bei Snapchat auf, wenn Kindern gesagt wird,

00:59:16.060 –> 00:59:22.260

schick mir mal ein Foto, dann wird die Uhr gelobt. Und welche Kopfhörer sind das? Oder erzähl nicht

00:59:22.260 –> 00:59:28.980

deinen Eltern, dass du mit mir gesprochen hast und eine KI denkt sich da nichts dabei oder wenig oder

00:59:28.980 –> 00:59:33.860

die wirtschaftlichen Interessen stecken dahinter, weil wir wissen nicht, wie sie programmiert ist

00:59:33.860 –> 00:59:39.540

und wer sie programmiert hat und warum das so ist. Und das soll jetzt auch kein Unken sein,

00:59:39.540 –> 00:59:46.460

wir sollen das nicht tun, sondern ja, eigentlich ist es eher eine Mahnung an den Menschen und an

00:59:46.460 –> 00:59:52.060

die wirtschaftlichen Interessen und das sehen wir auch in der Wirtschaft, weil wir haben keinen

00:59:52.060 –> 00:59:59.060

Gesamtethikrat der Welt. Wir haben keine allgemeingültige Moral. Und das ist ein Punkt,

00:59:59.060 –> 01:00:05.060

der mir halt auffällt und der ein Stolperstein sein kann. Trotzdem können wir uns dieser

01:00:05.060 –> 01:00:09.860

Entwicklung weder verschließen, noch sollten wir das tun und sollten sie nutzen. Deswegen

01:00:09.860 –> 01:00:16.060

bedanke ich mich auch herzlich für die Impulse und die Diskussion und denke, dass es wichtig ist,

01:00:16.060 –> 01:00:20.780

wie nutzen wir es. Und ich muss jetzt gerade an meine Krankenversicherung denken, die ich

01:00:20.780 –> 01:00:25.340

angerufen habe und hätte ich dann mit einem Bot telefoniert, wäre das nicht so schön

01:00:25.340 –> 01:00:31.960

gewesen, weil ich einen Einzelfall hatte. Und das war aufgrund meiner chronischen

01:00:31.960 –> 01:00:39.380

Erkrankung. Und meine Sachbearbeiterin hatte genau dieselbe Erkrankung

01:00:39.380 –> 01:00:44.580

und konnte das total gut nachempfinden und hat dann den Einzelfall gesehen

01:00:45.140 –> 01:00:50.860

und hat alles dafür getan, dass das entsprechend behandelt worden ist.

01:00:50.860 –> 01:00:53.220

Und ich will nicht sagen, das macht eine KI nicht.

01:00:53.220 –> 01:00:58.900

Ich sage nur, ich weiß nicht, ob das immer so allgemeingültig gemacht wird.

01:00:58.900 –> 01:01:03.860

Und deswegen bin ich ganz froh, dass ich eine Sachbearbeiterin hatte,

01:01:03.860 –> 01:01:06.980

die das nachvollziehen konnte.

01:01:06.980 –> 01:01:09.060

Und das ist so das Einzige.

01:01:09.060 –> 01:01:10.380

Ich möchte das nutzen.

01:01:10.380 –> 01:01:12.140

Ich finde das super.

01:01:12.140 –> 01:01:14.420

Es ist egal, ob wir es günstig oder billig nennen.

01:01:14.420 –> 01:01:20.920

Ich glaube einfach, dass es wichtig ist, dass wir es uns nochmal genau anschauen und dass wir nicht vergessen,

01:01:20.920 –> 01:01:25.220

das Problem ist nicht die KI, sondern das Problem ist der Mensch.

01:01:25.220 –> 01:01:28.620

Und das Problem ist vielleicht das wirtschaftliche Interesse.

01:01:28.620 –> 01:01:32.920

Und wenn wir das richtig machen und das richtig einspeisen, kann das super sein.

01:01:32.920 –> 01:01:39.920

Aber wenn wir nur die wirtschaftlichen Interessen dahinter sehen und das so eingespeist wird,

01:01:39.920 –> 01:01:46.080

dann ist es unter Umständen so, dass dann Schwierigkeiten entstehen können,

01:01:46.080 –> 01:01:50.840

ja, wo Situationen entstehen können, die schwierig sind. Aber ich nutze es auch,

01:01:50.840 –> 01:01:54.520

ich nutze es gerne und möchte nochmal auf den Link hinweisen, weil das mit der

01:01:54.520 –> 01:02:00.000

Buchidee finde ich toll und ja, würde mich auch freuen, wenn dadurch tolle

01:02:00.000 –> 01:02:04.520

Bücher und tolle Ideen entstehen und ja, vielen Dank fürs Zuhören.

01:02:04.520 –> 01:02:08.680

Ja, vielen, vielen lieben Dank und bevor ich gleich zu Sabine Switsche und wir

01:02:08.680 –> 01:02:14.520

dann im Anschluss an in unsere Abschlussrunde für heute übergehen, möchte ich gerne noch zwei

01:02:14.520 –> 01:02:20.200

Aspekte aufgreifen. “The Moral Machine” und “The Harvard University” waren jetzt Stichworte,

01:02:20.200 –> 01:02:24.640

die gefallen sind in dem Zusammenhang. Da möchte ich auch gerne den Kreis noch mal schließen zu

01:02:24.640 –> 01:02:30.160

dem Szenariendenken, was wir auch wieder beim Autoren-Frühstück übrigens hatten mit Dr.

01:02:30.160 –> 01:02:35.520

Franz Hütter. Also hier wurde ja auch noch mal darauf sensibilisiert, dass wir mehr Training

01:02:35.520 –> 01:02:43.360

darin brauchen, in im Szenarien denken und dass das eines der übergeordneten Skills ist, was wir

01:02:43.360 –> 01:02:49.320

hier wirklich, ob das jetzt mit der Arbeit mit KI ist, wie die Programmierung ist oder sonstiges

01:02:49.320 –> 01:02:53.800

oder auch andere Kontexte, dass es eben um Szenarien denken geht. Also das möchte ich gerne

01:02:53.800 –> 01:02:57.800

hier noch mal unterstreichen und hört auf jeden Fall, wer es noch nicht gehört hat, wenn ich

01:02:57.800 –> 01:03:03.440

live dabei war, auch in diese Folge rein. Übrigens erwarten wir Dr. Franz Hütter auch noch mal im

01:03:03.440 –> 01:03:08.080

Kontext von VR, auch zum Experten-Talk.

01:03:08.080 –> 01:03:10.480

Da freue ich mich auch schon mega drauf.

01:03:10.480 –> 01:03:13.040

In den nächste Woche ist das, glaube

01:03:13.040 –> 01:03:14.400

ich, wenn ich mich nicht irre. Also

01:03:14.400 –> 01:03:15.400

von daher es lohnt sich hier wirklich

01:03:15.400 –> 01:03:17.000

mal zu schauen, welche

01:03:17.000 –> 01:03:18.880

Entwicklungen es gibt. Das ist das

01:03:18.880 –> 01:03:24.000

eine. Und das zweite, was ich noch mal

01:03:24.000 –> 01:03:28.000

aufgreifen wollte, war das mit diesen

01:03:28.000 –> 01:03:29.480

ganzen, gerade war dieses Beispiel da,

01:03:29.480 –> 01:03:32.320

ich habe mit der Krankenkasse

01:03:29.480 –> 01:03:33.680

telefoniert und ich war froh, dass ein Mensch auf der anderen Seite war.

01:03:33.680 –> 01:03:37.100

Was wir dabei nicht vergessen dürfen und ich glaube, dass es auch nochmal ein

01:03:37.100 –> 01:03:41.360

ganz wichtiger Impact, den es geben wird, ist, sind unsere Nachfolgegenerationen.

01:03:41.360 –> 01:03:46.120

Wir gehen ja immer von uns aus. Was für uns heute selbstverständlich ist oder

01:03:46.120 –> 01:03:50.840

vielleicht merkwürdig erscheint oder wo wir das Gefühl haben, da bin ich schon

01:03:50.840 –> 01:03:54.240

froh, dass da ein Mensch auf der anderen Seite sitzt und so weiter, das wird sich

01:03:54.240 –> 01:04:01.140

ganz anders gestalten mit unseren Generationen, die damit aufwachsen, dass sie gar nichts

01:04:01.140 –> 01:04:03.140

anderes kennen, in Anführungsstrichen.

01:04:03.140 –> 01:04:07.380

Und wir sehen das ja jetzt mit diesen ganzen Social-Media-Entwicklungen und so weiter und

01:04:07.380 –> 01:04:08.380

so fort.

01:04:08.380 –> 01:04:09.380

Ich sage nicht, dass das gut ist.

01:04:09.380 –> 01:04:11.620

Da sind wir jetzt wieder bei einer Bewertung, wenn wir dann anfangen, das zu analysieren

01:04:11.620 –> 01:04:13.180

und zu reflektieren und so weiter.

01:04:13.180 –> 01:04:15.580

Das können wir alles machen und wir können das diskutieren.

01:04:15.580 –> 01:04:20.180

Nichtsdestotrotz ändert es nichts an dem Umstand, dass hier immer dann, wenn eine neue

01:04:20.180 –> 01:04:24.780

Generation am Heranwachsen ist mit neuen Tools, Techniken und so weiter, ganz

01:04:24.780 –> 01:04:29.540

andere Ansichten eben auch hat, als das, womit wir groß geworden sind. Und das,

01:04:29.540 –> 01:04:33.660

womit wir uns vielleicht schwer tun, damit tut sich möglicherweise eine

01:04:33.660 –> 01:04:36.740

Nachfolgegeneration überhaupt nicht mehr schwer, weil das für die total

01:04:36.740 –> 01:04:40.700

selbstverständlich ist. Wie gesagt, das kann man in Frage stellen, kann gucken,

01:04:40.700 –> 01:04:43.500

was bedeutet das gesellschaftlich, da sind wir dann auf einer anderen Ebene

01:04:43.500 –> 01:04:47.740

der Diskussion und können uns überlegen, was wollen wir, was wollen wir nicht. Und

01:04:47.740 –> 01:04:51.100

Das ist auch total berechtigt und auch sinnvoll, diese Diskussionen zu führen.

01:04:51.100 –> 01:04:55.860

Aber nicht per se davon auszugehen, dass so wie wir das heute erachten und sehen,

01:04:55.860 –> 01:04:59.740

dass auch die Nachfolgegenerationen das genauso erachten und sehen.

01:04:59.740 –> 01:05:02.180

Die werden das teilweise eben auch ganz anders erleben.

01:05:02.180 –> 01:05:05.180

Und damit gerne zu Sabine.

01:05:05.180 –> 01:05:09.420

Ja, mir fiel noch mal ein vierter Punkt an, und zwar war Donnerstag Feiertag

01:05:09.420 –> 01:05:13.060

und ich lag auf der Terrasse in der Sonne und hab Atlas der Entscheider

01:05:13.060 –> 01:05:17.860

und da war ein KI-Thema und das fand ich einfach so simpel dargestellt.

01:05:17.860 –> 01:05:23.800

Da war einfach ein Ablaufdiagramm und da war so eine Bündelung, wo geht welche

01:05:23.800 –> 01:05:29.260

Aufgabe hin und da war einfach, okay, wenn es 100 Prozent fehlergenau, keine Fehler

01:05:29.260 –> 01:05:33.740

ist, geht es sowieso an die KI. Wenn zehn Prozent, jetzt frage ich mich nicht nach den

01:05:33.740 –> 01:05:38.540

Prozentzahlen, aber wenn zehn Prozent der Mensch, dann geht, macht es einen Umweg und

01:05:38.540 –> 01:05:43.580

noch mal kontrolliert, wie wichtig sind die 10 Prozent. Wenn das am Ende nicht,

01:05:43.580 –> 01:05:48.580

dann geht es auch an die KI. Und dann kommen die Aufgaben, wo man sagt,

01:05:48.580 –> 01:05:53.460

nee, das geht nicht an die KI. Und ich denke, das ist einfach ein Abbild, wie es

01:05:53.460 –> 01:05:56.780

zukünftig in den Unternehmen geht. Das ist die Basis für eine

01:05:56.780 –> 01:06:01.740

Unternehmensberatung, wenn die heute in ein Unternehmen reingehen und sagen, okay, was

01:06:01.740 –> 01:06:06.700

kann hier in Richtung KI gehen. Und das ist Realität. Ich glaube, da brauchen wir auch

01:06:06.700 –> 01:06:10.580

nicht immer darüber nachzudenken. Das ist Realität. Was ich noch sagen wollte, mir

01:06:10.580 –> 01:06:14.000

ist auch wieder der Name eingefallen, Snapchat, aber ist egal wie das Tool auch

01:06:14.000 –> 01:06:19.100

heißt. Ich glaube, da sind wir auch wieder als Eltern mitgefragt. Also ich bin fest

01:06:19.100 –> 01:06:22.420

davon überzeugt, bei meiner großen Weise ist bei der mittleren auch schon. Die

01:06:22.420 –> 01:06:25.740

arbeiten schon mit Chat-GPT. Die haben, denke ich, schon mal Vernunft.

01:06:25.740 –> 01:06:29.100

Also sind die schon so weit. Bei dem Kleinen bin ich mir da nicht so sicher,

01:06:29.100 –> 01:06:32.420

dass man einfach mit dem auch im Gespräch bleibt und sagt, was machst du da?

01:06:32.420 –> 01:06:37.380

Wie ist das? Das finde ich aber cool. Wenn da aber einer sagt, geh nicht mit dir mit.

01:06:37.380 –> 01:06:42.620

Du hast das schon verstanden. Und da ist natürlich dann auch wieder die Frage, wie

01:06:42.620 –> 01:06:47.340

eng ist der Draht von Eltern zu Kindern? Wo können wir da ein bisschen, weil man

01:06:47.340 –> 01:06:52.300

muss ja mal ehrlich sein, die Kinder sind uns ja in vielen weit überlegen. Und wie

01:06:52.300 –> 01:06:56.220

will ich mit jemandem sprechen, wenn ich selbst keine Ahnung davon habe? Das

01:06:56.220 –> 01:06:59.980

wollte ich gerne noch mal sagen. Und dann das Thema Bildung natürlich. Es gibt

01:06:59.980 –> 01:07:03.660

kaum noch irgendwo einen Tag, wo man sich nicht mit Freunden trifft und wir reden

01:07:03.660 –> 01:07:07.980

über Bildung. Aber warum passiert denn nichts? Also ich bin da völlig bei dir

01:07:07.980 –> 01:07:14.260

Layla und es muss das rein und wir müssen kein Wissen mehr prügeln, wir

01:07:14.260 –> 01:07:18.880

müssen das anwenden. Nur auch da denke ich fast, Layla du bist da bestimmt eine

01:07:18.880 –> 01:07:23.780

rühmliche Ausnahme, dass viele Kinder in dem Thema weiter sind als die Lehrer.

01:07:23.780 –> 01:07:31.300

Aber warum wird nicht oben angesetzt? Die letzte Frage ist noch, so wie ich da

01:07:31.300 –> 01:07:37.500

vorhin zugehört habe, müsse doch KI die Lösung unseres Fachkräftemangels

01:07:37.500 –> 01:07:41.500

sind. Natürlich sind die heute noch nicht alle an dem Level, aber ich kann die ja

01:07:41.500 –> 01:07:44.980

noch ein bisschen schlauer machen und dann habe ich doch Arbeitskräfte. Das war

01:07:44.980 –> 01:07:50.420

jetzt noch mal eine provokative Frage. Ich wünsche euch also ein toller Raum.

01:07:50.420 –> 01:07:55.460

Ja, ich brauche glaube ich kein Schlusswort mehr zu sagen, weil ich fand den Raum insgesamt toll,

01:07:55.460 –> 01:08:00.020

ich fand den Ablauf toll. Das war mein Schlusswort. Ich wünsche euch allen ein tolles Wochenende.

01:08:00.020 –> 01:08:05.740

Ja, super, vielen, vielen lieben Dank. Die Frage lassen wir einfach mal zum Nachwirken so stehen

01:08:05.740 –> 01:08:12.180

und damit gehen wir dann auch in die Abschlussrunde. Ich habe das verzeichnet, liebe Sabine, nehme ich

01:08:12.180 –> 01:08:19.500

gerne als Abschlusswort dann auch an und möchte gerne tatsächlich jetzt auch noch mal gucken,

01:08:19.500 –> 01:08:23.580

was eure Highlights aus dem Raum sozusagen sind, um dann gerne auch noch

01:08:23.580 –> 01:08:27.620

mal abzurunden und das morgige Thema entsprechend anzukündigen.

01:08:27.620 –> 01:08:30.260

Marc, Jürgen Layla in der Reihenfolge bitte.

01:08:30.260 –> 01:08:34.380

Ich möchte gerne noch mal polarisieren. Unser Gehirn hat auch die Moral des

01:08:34.380 –> 01:08:38.100

Programmierers, unter anderem unsere Glaubenssätze und unser Umfeld und die

01:08:38.100 –> 01:08:41.660

Lösung für mich für all diese Dinge sind immer Hinterfragen. Wenn das

01:08:41.660 –> 01:08:45.820

hinterfragt wird, egal ob die KI das hinterfragt oder wir, dann sind wir schon

01:08:45.820 –> 01:08:48.340

damals schon ein ganzes Stück weiter und der letzte Punkt, den ich noch nicht

01:08:48.340 –> 01:08:50.740

gesagt habe, KI ist ja auch unheimlich teuer.

01:08:50.740 –> 01:08:54.340

Chat GPT hat momentan Betriebskosten von 700.000 US-Dollar.

01:08:54.340 –> 01:08:58.540

Also muss uns auch klar sein, auch das Nutzen dieser KI in Zukunft

01:08:58.540 –> 01:09:01.540

wird Geld kosten und auch das ist ein anderes Thema, kann sich das

01:09:01.540 –> 01:09:03.540

jedes Unternehmen leisten und so weiter und so weiter.

01:09:03.540 –> 01:09:05.740

Es wird nicht umsonst bleiben, es wird Geld kosten.

01:09:05.740 –> 01:09:09.340

Vielen, vielen lieben Dank. Jürgen.

01:09:09.340 –> 01:09:14.340

Ja, danke euch allen wie immer für eure Beiträge.

01:09:14.340 –> 01:09:17.140

Ich möchte mein Schlimmstes allerdings etwas vergewaltigen,

01:09:17.140 –> 01:09:21.280

dir noch mal speziell zu danken, liebe Yasemin, für die letzte Ausführung mit dem

01:09:21.280 –> 01:09:28.180

mit dem Link auf das Szenario und Szenario vorgehen bei Lösung als

01:09:28.180 –> 01:09:35.300

Problemlösungszyklus und ich denke, dass das Thema KI prädestiniert ist

01:09:35.300 –> 01:09:40.860

für die konstruktive Anwendung genau dieses Szenario Modells, weil es darum

01:09:40.860 –> 01:09:46.540

geht zu spezifizieren und gedankliche Konstrukte für unsere Zukunft

01:09:46.540 –> 01:09:55.740

zu gestalten, wie es sieht die derzeitige, das derzeitige Szenario, das Ist-Szenario unter

01:09:55.740 –> 01:10:04.660

dem Einfluss heute schon von KI aus im Gegensatz zu dem erwarteten Szenario, um daraus dann schließen

01:10:04.660 –> 01:10:13.020

zu können auf das gewünschte Szenario und darüber als große Metaebene irgendwann abgeleitet aus den

01:10:13.020 –> 01:10:19.060

Vor- und Nachteilen, die wir heute aus dem Ist-Szenario abgeleitet haben, das utopische

01:10:19.060 –> 01:10:26.260

Szenario. Insofern fand ich diese Verbindung mit Szenario, Szenario-Modell absolut treffend.

01:10:26.260 –> 01:10:32.020

Herzlichen Dank, schönen Samstag und vielleicht bis morgen, das steht bei mir noch offen.

01:10:32.020 –> 01:10:35.260

Ja, großartig. Vielen, vielen Dank, Layla.

01:10:35.260 –> 01:10:44.820

Ja, also mir geht es so, dass ich sehr viele Fragezeichen habe, aber dafür weniger Ausrufezeichen.

01:10:44.820 –> 01:10:51.340

Das finde ich schon mal sehr schön. Ich merke, dass man die Zukunft manchmal wie ein Wahrsager

01:10:51.340 –> 01:10:58.380

voraussehen sollte, muss, will und das vielleicht gar nicht kann. Aber das ist auch gut so. Und zum

01:10:58.380 –> 01:11:03.100

Schluss möchte ich noch mal Bertolt Brecht aus “Der gute Mensch” von Cégeuns zitieren, weil ich finde,

01:11:03.100 –> 01:11:04.780

Das passt gerade sehr gut.

01:11:04.780 –> 01:11:07.460

Wir stehen selbst enttäuscht und sind betroffen.

01:11:07.460 –> 01:11:09.580

Den Vorhang zu und alle Fragen offen.

01:11:09.580 –> 01:11:11.260

Ich freue mich auf weitere Räume.

01:11:11.260 –> 01:11:12.780

Danke fürs Zuhören.

01:11:12.780 –> 01:11:15.340

Ja, großartig. Vielen, vielen lieben Dank.

01:11:15.340 –> 01:11:19.500

Ja, und abschließend möchte ich gerne auch noch mal sozusagen zusammenführen

01:11:19.500 –> 01:11:22.460

und noch mal eines festhalten, nämlich wir.

01:11:22.460 –> 01:11:24.340

Also zum einen finde ich es wunderbar.

01:11:24.340 –> 01:11:27.500

Layla, wenn ganz viele Fragezeichen da sind, dann ich sage es ja immer wieder.

01:11:27.500 –> 01:11:31.500

Wenn Fragezeichen da sind, dann sind wir ins Grübeln, ins Denken gekommen.

01:11:31.540 –> 01:11:34.300

Und das bedeutet, dass wir die Möglichkeit eröffnet haben,

01:11:34.300 –> 01:11:37.460

sozusagen hier nochmal Gedanken zu sortieren,

01:11:37.460 –> 01:11:40.980

in die Reflexion zu gehen, nachwirken zu lassen

01:11:40.980 –> 01:11:43.900

und vielleicht auch neue Antworten, neue Optionen zu entdecken,

01:11:43.900 –> 01:11:47.580

neue Antworten zu finden für uns oder auch alte Antworten zu bekräftigen.

01:11:47.580 –> 01:11:52.060

Auch das ist ja durchaus eine Möglichkeit, eine Option, die wertvoll und wichtig ist.

01:11:52.060 –> 01:11:57.260

Und ich möchte noch mal ganz kurz an diesen Punkt mit andocken,

01:11:57.260 –> 01:11:59.220

weil es jetzt mehrfach heute auch gesagt wurde,

01:11:59.220 –> 01:12:03.220

Wir könnten im Grunde genommen ein riesen Dachthema zur KI allein schon machen.

01:12:03.220 –> 01:12:05.580

Ja, habt ihr recht. Vielleicht kommt das auch irgendwann mal.

01:12:05.580 –> 01:12:07.940

Können wir ja mal schauen, wie sich das so weiterentwickelt.

01:12:07.940 –> 01:12:11.900

Mein Ansinnen unter diesem Dachthema Pioniergeist mit Hirn ist tatsächlich

01:12:11.900 –> 01:12:13.860

jetzt mal die Zusammenhänge aufzuzeigen.

01:12:13.860 –> 01:12:16.940

Und ihr werdet in den nächsten Tagen und Wochen einfach sehen.

01:12:16.940 –> 01:12:21.780

Im Grunde genommen werden wir vielleicht ein Stück weit auch durch die Medien

01:12:21.780 –> 01:12:27.300

getrieben, sozusagen immer wieder mit unserem Fokus auf etwas Bestimmtes gelenkt.

01:12:27.340 –> 01:12:30.820

Aber letztendlich geht es um das Verstehen der Zusammenhänge.

01:12:30.820 –> 01:12:38.420

Es ist eben nicht die KI oder es ist nicht die Blockchain oder es ist nicht VR oder was weiß ich was,

01:12:38.420 –> 01:12:44.500

die die Veränderung hier im Einzelnen betrachtet, herbeiführen wird und zwar in dieser Potenzierung,

01:12:44.500 –> 01:12:51.660

sondern dieses Zusammenspiel dieser Technologien, die im Hintergrund über viele Jahre schon gelaufen sind.

01:12:51.660 –> 01:12:56.180

Heute sehen wir die ersten Ergebnisse daraus, die jetzt für uns auch spürbar werden.

01:12:56.180 –> 01:13:01.500

Und wir haben eine Idee davon bekommen durch die Anwendung, in welche Richtung es vielleicht

01:13:01.500 –> 01:13:04.980

gehen könnte oder was es noch alles können wird in Zukunft.

01:13:04.980 –> 01:13:08.780

Und das wird auch kommen, viel schneller, als wir uns das teilweise vorstellen können.

01:13:08.780 –> 01:13:14.780

Und umso wichtiger ist es eben auch, die Zusammenhänge, also nicht nur die KI im Einzelnen zu betrachten,

01:13:14.780 –> 01:13:20.420

sondern hier die technologischen Entwicklungen, die stattfinden, zusammen zu betrachten und

01:13:20.420 –> 01:13:27.220

in der Kombination zu denken, um zu realisieren, was sich verändern wird und gleichzeitig auch die

01:13:27.220 –> 01:13:31.900

Potenziale für uns zu entdecken. Und das ist nochmal etwas, was ich gerne abschließend auch

01:13:31.900 –> 01:13:36.300

nochmal unterstreichen möchte. Damit sind wir heute Morgen nämlich eingestiegen. Das heißt,

01:13:36.300 –> 01:13:42.100

wir neigen ja dazu, weil es immer unser Gehirn denkt natürlich automatisch an Existenzsicherung.

01:13:42.100 –> 01:13:45.780

Was bedeutet das für uns? Wollen wir das überhaupt? Und so weiter und so fort. Und

01:13:45.780 –> 01:13:49.660

diese Fragestellungen sind auch berechtigt und sie haben auch ihren Raum und sie dürfen auch

01:13:49.660 –> 01:13:54.340

ihren Platz finden. Gleichzeitig, wir denken ja häufig in entweder-oder-Konstellationen,

01:13:54.340 –> 01:14:01.420

ist es jetzt wichtig, immer wieder unseren Fokus ganz bewusst zu steuern auf, was bedeutet das für

01:14:01.420 –> 01:14:06.420

mich? Was bedeutet die KI für mich? Wo kann ich sie tatsächlich heute schon nutzen, einsetzen,

01:14:06.420 –> 01:14:10.660

Potenziale entfalten und so weiter? Und die gleiche Fragestellung dürft ihr euch dann in

01:14:10.660 –> 01:14:14.940

den nächsten Tagen stellen, wenn wir über Blockchain, über Digitalisierung, über was

01:14:14.940 –> 01:14:20.940

weiß ich was sprechen, ohne den Aspekt der gesellschaftlichen Ebene auszulassen oder der

01:14:20.940 –> 01:14:25.900

volkswirtschaftlichen Ebene. Auch darüber können wir gerne diskutieren. Wir dürfen aber uns

01:14:25.900 –> 01:14:33.020

disziplinieren, immer wieder nicht zu sehr ausschließlich aus der einen Perspektive oder

01:14:33.020 –> 01:14:38.660

Brille zu gucken, nämlich aus dieser Sorgenbrille, sondern auch aus der Potenzialbrille. Und wenn ich

01:14:38.660 –> 01:14:44.940

den “Wofür kann ich es einsetzen, wofür kann ich es für mich nutzen?” auch mit betrachte,

01:14:44.940 –> 01:14:53.060

dann kann ich eben heute auch schon ganz gewaltige Dinge damit machen, die ja mein Potenzial

01:14:53.060 –> 01:14:57.980

vervielfachen, vertausendfachen an der Stelle. Ob das jetzt KI oder andere Tools oder die

01:14:57.980 –> 01:15:02.340

kombinierte Version dieser Tools ist, ist mal erstmal dahingestellt. Das muss dann jeder für

01:15:02.340 –> 01:15:07.500

sich auch nochmal selbst prüfen. Und Anwendungsbereiche gibt es genug. Heute habe ich

01:15:07.500 –> 01:15:12.260

einen Link dabei, wo ihr es eben mit einsetzen könnt, zum Beispiel auch, um ein Buch zu

01:15:12.260 –> 01:15:17.860

schreiben. Müsst ihr nicht, könnt ihr machen. Ist für jeden eine individuelle Entscheidung.

01:15:17.860 –> 01:15:23.940

Ich kann euch nur empfehlen, euch mit diesen Themen wirklich intensiv zu befassen, denn

01:15:23.940 –> 01:15:28.340

und das ist das, was ich eingangs heute Morgen gesagt habe, wir neigen dazu, linear einfach

01:15:28.340 –> 01:15:33.200

zu denken. Das ist das, was unser Gehirn kann. Wir haben Schwierigkeiten damit, in der Potenzierung

01:15:33.200 –> 01:15:37.120

zu denken. Was hier aber jetzt passiert, ist durch diese ganzen technologischen

01:15:37.120 –> 01:15:42.760

Entwicklungen einzeln genommen und dann in der Kombination betrachtet, ist

01:15:42.760 –> 01:15:47.880

wirklich eine Beschleunigung, eine Potenzierung hoch, ich weiß nicht wie

01:15:47.880 –> 01:15:50.960

viel. Das können wir uns gar nicht vorstellen, das kann unser Gehirn

01:15:50.960 –> 01:15:55.520

nicht leisten. Das ist so ähnlich wie der Zinseszinseffekt. Hören wir immer

01:15:55.520 –> 01:16:00.560

wieder, hört sich toll an, aber im Grunde genommen geht unser Gehirn nicht rein.

01:16:00.560 –> 01:16:02.920

Nein, das Rechnen hört irgendwo einfach auf.

01:16:02.920 –> 01:16:04.720

Also da sind wir linear unterwegs.

01:16:04.720 –> 01:16:07.600

Und hier haben wir eine Potenzierung, die jetzt stattfindet.

01:16:07.600 –> 01:16:12.640

Ich habe nicht die Möglichkeit, mich jetzt zurückzulehnen und zu sagen, ich beobachte

01:16:12.640 –> 01:16:15.240

das oder ich mache das erst in einem Jahr.

01:16:15.240 –> 01:16:21.200

Ich darf jetzt wirklich gucken und erkennen, welche Möglichkeiten es gibt, wie ich das

01:16:21.200 –> 01:16:26.160

für mich einsetzen kann, um hier in eine Potenzierung reinzugehen, um nicht das Gap

01:16:26.160 –> 01:16:30.320

jetzt ganz groß werden zu lassen und das nicht als Negativszenario, sondern wirklich,

01:16:30.320 –> 01:16:36.080

Es wird schwierig für jeden von uns, hier aufzuholen, weil Lernen braucht Zeit.

01:16:36.080 –> 01:16:40.320

Und wenn ich diese Zeit jetzt an mir vorbeistreichen lasse, der eine vielleicht drei Monate, der

01:16:40.320 –> 01:16:43.960

andere sechs Monate, der andere ein Jahr, vergesst bitte nicht, dass wir Menschen haben

01:16:43.960 –> 01:16:48.480

auf diesem Markt, die schon seit Jahren diese Technologien für sich nutzen und einsetzen.

01:16:48.480 –> 01:16:53.360

Und dementsprechend ist es umso wichtiger, dass wir jetzt immer wieder auch uns die Frage

01:16:53.360 –> 01:16:55.680

stellen, was ist der Nutzen für mich?

01:16:55.680 –> 01:16:57.120

Für was kann ich es einsetzen?

01:16:57.120 –> 01:16:58.680

Wie kann ich es einsetzen?

01:16:58.680 –> 01:17:03.160

Und das ist mein Ansinnen, mit diesen Räumen jetzt wirklich die nächsten Tage und Wochen

01:17:03.160 –> 01:17:08.080

diese Zusammenhänge aufzuzeigen, deswegen immer wieder die Reduktion der Komplexität

01:17:08.080 –> 01:17:13.820

auf ein Themengebiet pro Raum sozusagen, um dann eben die Verknüpfung herzustellen und

01:17:13.820 –> 01:17:17.880

dann die entsprechenden Diskussionen hier zuzulassen, für euch den Raum aufzumachen,

01:17:17.880 –> 01:17:21.800

in die Reflexion zu gehen und angelehnt daran, Entscheidungen zu treffen.

01:17:21.800 –> 01:17:27.280

Und diese Entscheidungen nicht zu vertagen auf “irgendwann mal”, sondern so schnell

01:17:27.280 –> 01:17:30.440

wie möglich einfach mal loszulaufen und Erfahrungen zu sammeln.

01:17:30.440 –> 01:17:34.040

Ich glaube, darum geht es, Erfahrungen zu sammeln, auszuprobieren,

01:17:34.040 –> 01:17:37.160

Fehler zu machen und aus den Fehlern wieder auch zu lernen.

01:17:37.160 –> 01:17:39.120

In diesem Sinne. Vielen, vielen lieben Dank.

01:17:39.120 –> 01:17:40.520

Wir haben heute etwas überzogen.

01:17:40.520 –> 01:17:43.400

Seht es mir nach. Aber ich glaube, es lag einfach auch an dem Thema.

01:17:43.400 –> 01:17:45.960

Ich bin gespannt, wie es die nächsten Tage weitergeht.

01:17:45.960 –> 01:17:49.560

Morgen haben wir jetzt erst mal das Autoren-Frühstück mit Janik Gestör.

01:17:49.560 –> 01:17:51.000

Da freue ich mich auch total drauf.

01:17:51.000 –> 01:17:53.600

Morgen um acht. Ihr seid herzlich eingeladen, mit dabei zu sein.

01:17:53.600 –> 01:17:55.720

Und zwar geht es um Ich bin so frei.

01:17:55.760 –> 01:17:59.080

raus aus dem Hamsterrad, rein in den richtigen Job.

01:17:59.080 –> 01:18:01.760

Und das wird auch noch mal unter dem Dach “Pioniergeist mit Hirn”

01:18:01.760 –> 01:18:03.360

ganz spannend, diese Fragestellung.

01:18:03.360 –> 01:18:05.160

Was ist denn überhaupt der richtige Job?

01:18:05.160 –> 01:18:07.360

Was ist denn überhaupt der Job der Zukunft?

01:18:07.360 –> 01:18:08.920

In Anführungsstrichen und, und, und.

01:18:08.920 –> 01:18:11.480

All diese Fragen, um die wird es morgen gehen.

01:18:11.480 –> 01:18:12.640

Ich bin total gespannt.

01:18:12.640 –> 01:18:15.720

Ihr seid herzlich eingeladen und ich kann euch versichern,

01:18:15.720 –> 01:18:16.720

es wird spannend.

01:18:16.720 –> 01:18:19.800

Also insofern versucht mit dabei zu sein, wenn ihr es zeitlich schafft.

01:18:19.800 –> 01:18:21.160

Bis dahin. Ciao.

3 Myths Debunked – When Science Creates Knowledge! | Dr Yasemin Yazan

When Science Creates Knowledge!

Unfortunately, there is a lot of false knowledge on the market. Be it because, for example, research results are misinterpreted or false causalities are made, or because they are transferred to other contexts that were not even the subject of the study.

We pick 3 myths and show what science already knows:

- Why Maslow's hierarchy of needs is not a reliable basis for motivation

- Why personality tests are questionable as a basis for personnel decisions

- Why a quota is needed as an effective measure against Unconscious Bias

Data Protection Declaration

Declaration Of Consent

Congratulations - your download is waiting for you in your mailbox!