Gehirnfutter f├╝r Pioniergeister: Was ist K├╝nstliche Intelligenz & welche Auswirkungen hat sie auf die Arbeitswelt? Das ist die Fragestellung mit der wir uns in Raum #856 des Deep Talk Clubs unter dem Dachthema „Pioniergeist mit Hirn“ befassen. H├Âre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: ­čçę­č笭čçĘ­čçş­č玭čç╣ #856 KI & Arbeitswelt | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:03.280

Einen wundersch├Ânen guten Morgen w├╝nsche ich.

00:00:03.280 –> 00:00:11.480

Ja, nach einer gestrigen, ganz, ganz tollen Veranstaltung von Dr. Johanna Dahm,

00:00:11.480 –> 00:00:17.520

die Pressekonferenz, die stattgefunden hat in Frankfurt, einige von euch waren auch mit vor Ort

00:00:17.520 –> 00:00:19.440

und es war gro├čartig.

00:00:19.440 –> 00:00:21.480

Freue ich mich heute, den Morgen zu starten.

00:00:21.480 –> 00:00:26.800

Ich kann euch sagen, es ist noch in den Knochen zu sp├╝ren.

00:00:26.800 –> 00:00:31.960

Und trotzdem und gerade deswegen bin ich total geflasht heute Morgen.

00:00:31.960 –> 00:00:36.520

Und ja, ich habe euch auch einen Link wieder mitgebracht und ich werde es auch alles gleich

00:00:36.520 –> 00:00:37.520

aufkl├Ąren.

00:00:37.520 –> 00:00:39.800

Also ich denke, ganz, ganz spannend wird es heute.

00:00:39.800 –> 00:00:46.160

Ich freue mich total auf diesen Austausch mit euch und ├╝ber KI und die Arbeitswelt

00:00:46.160 –> 00:00:47.160

zu sprechen.

00:00:47.160 –> 00:00:51.520

Also was ist eigentlich k├╝nstliche Intelligenz und welche Auswirkungen hat sie auf die Arbeitswelt?

00:00:51.520 –> 00:00:57.920

Das ist das Thema, bei dem wir unter dem Dachthema Pioniergeist mit Hirn gemeinsam heute mal

00:00:57.920 –> 00:00:58.920

draufschauen wollen.

00:00:58.920 –> 00:01:03.160

Und ├Ąhnlich wie heute mit der KI werden wir in den n├Ąchsten Tagen eben auch andere Aspekte

00:01:03.160 –> 00:01:09.040

aufmachen, ob das die Blockchain ist, ob das andere Technologien sind, VR-Brillen und so

00:01:09.040 –> 00:01:10.040

weiter und so fort.

00:01:10.040 –> 00:01:15.240

Also wir werden uns hier ganz vielf├Ąltig eben neue Technologien auch nochmal anschauen,

00:01:15.240 –> 00:01:20.200

um eben auch die Zusammenh├Ąnge zu verstehen, um zu realisieren, was bedeutet das denn eigentlich,

00:01:20.200 –> 00:01:22.080

Wie kann ich das vielleicht auch f├╝r mich nutzen?

00:01:22.080 –> 00:01:26.640

Und was bedeutet das aber auch nicht nur auf der individualistischen Ebene, sondern eben

00:01:26.640 –> 00:01:29.920

auch gemeinschaftlich gedacht, als Gesellschaft gedacht?

00:01:29.920 –> 00:01:31.760

Wo sind die Gefahren?

00:01:31.760 –> 00:01:33.640

Wo k├Ânnen wir mit anpacken?

00:01:33.640 –> 00:01:35.960

Wie k├Ânnen wir das aber trotzdem f├╝r uns auch nutzen?

00:01:35.960 –> 00:01:39.360

Und welchen Beitrag k├Ânnen wir in diesem Zusammenhang leisten?

00:01:39.360 –> 00:01:41.880

Und was hat das Ganze mit Pioniergeist, mit Hirn zu tun?

00:01:41.880 –> 00:01:44.960

Also von daher wird das sehr, sehr spannend.

00:01:44.960 –> 00:01:46.840

Und insofern freue ich mich auch riesig.

00:01:46.840 –> 00:01:52.400

Und in diesem Zusammenhang m├Âchte ich gerne zum Einstieg heute in das KI-Thema auch verk├╝nden

00:01:52.400 –> 00:01:53.720

und freue mich dar├╝ber.

00:01:53.720 –> 00:01:59.840

Ja, ich hatte es gesagt, die Knowledge Base, die wird vorbereitet f├╝r euch im Hintergrund.

00:01:59.840 –> 00:02:05.320

Wir haben hier einiges in den letzten Wochen fabriziert, auf die Beine gestellt und so

00:02:05.320 –> 00:02:06.320

weiter.

00:02:06.320 –> 00:02:10.280

Das Ganze wird weiter befl├╝gelt, gef├╝llt und so weiter.

00:02:10.280 –> 00:02:13.320

Aber der erste Wurf ist bereits ver├Âffentlicht.

00:02:13.320 –> 00:02:19.760

findet es auf der Webseite von mir, jasminjasan.com, also vor- und nachname.com.

00:02:19.760 –> 00:02:25.000

Und dann gibt es einen Reiter oder Men├╝punkt Knowledge Base.

00:02:25.000 –> 00:02:29.040

Und da sind von A bis Z zumindest schon mal

00:02:29.040 –> 00:02:34.200

mindestens ein Begriff aufgegriffen unter diesem Dach Pioniergeist mit Hirn.

00:02:34.200 –> 00:02:36.840

Und hier wird noch ganz, ganz viel mehr folgen.

00:02:36.840 –> 00:02:38.680

Also es ist der erste Entwurf.

00:02:38.680 –> 00:02:42.800

Das hei├čt, viele Verlinkungen sind noch, also Verlinkungen sind noch gar keine

00:02:43.000 –> 00:02:48.440

Das ist jetzt etwas, was sukzessive Schritt f├╝r Schritt kommen wird. Ich hatte schon angek├╝ndigt,

00:02:48.440 –> 00:02:54.560

dass hier auch verschiedene hochkar├Ątige Experten, Wissenschaftler mitschreiben werden,

00:02:54.560 –> 00:02:59.240

auch hier Beitr├Ąge noch mitliefern werden. Auch hier finden Gespr├Ąche gerade statt.

00:02:59.240 –> 00:03:04.920

Und um die Qualit├Ąt entsprechend hochzuhalten, habe ich mich entschieden, dass es eben Personen

00:03:04.920 –> 00:03:10.040

sein werden, die auch direkt an die Wissenschaft angedockt sind. Und das sind in der Regel die,

00:03:10.040 –> 00:03:14.860

die auch irgendwie promoviert haben, Lehren an Hochschulen und so weiter und so fort. Und insofern

00:03:14.860 –> 00:03:18.440

passiert hier jetzt in den n├Ąchsten Tagen und Wochen ganz, ganz viel. Ich freue mich drauf,

00:03:18.440 –> 00:03:23.200

damit wir diesen ersten Wurf in Anf├╝hrungsstrichen erstmal ver├Âffentlichen k├Ânnen und nicht sagen,

00:03:23.200 –> 00:03:28.520

ah, Speed of Implementation ist hier ein Thema, damit wir nicht sagen, wir warten jetzt wochenlang,

00:03:28.520 –> 00:03:33.800

bis irgendwelche Beitr├Ąge da sind oder, oder, oder. Habe ich mich entschieden, einfach Datenmaterial

00:03:33.800 –> 00:03:39.200

aufzugreifen, was bereits da ist, einiges neu hinzuzuf├╝gen und das eben entsprechend zu

00:03:39.200 –> 00:03:44.480

ver├Âffentlichen. Das hei├čt, es sind dann Beitr├Ąge von ganz kurz ├╝ber ganz lang

00:03:44.480 –> 00:03:48.240

alles M├Âgliche schon mal mit dabei, damit wir zumindest bei jedem Buchstaben auch

00:03:48.240 –> 00:03:53.360

schon mal was drinstehen haben. Und wundert euch da eben nicht, das ist noch

00:03:53.360 –> 00:03:56.600

nicht voll umf├Ąnglich, sondern das wird jetzt weiter wachsen und da freue ich

00:03:56.600 –> 00:04:00.800

mich total drauf. Und ja, und in diesem Zusammenhang, warum erw├Ąhne ich das

00:04:00.800 –> 00:04:04.920

gerade jetzt und heute? Weil das passt zu unserem Thema k├╝nstliche Intelligenz,

00:04:04.920 –> 00:04:10.760

Denn dazu ist auch ein Beitrag eingestellt, der ├╝brigens vor einigen Jahren schon entstanden

00:04:10.760 –> 00:04:12.400

ist, also auch nicht neu ist.

00:04:12.400 –> 00:04:16.760

Den gab es vorher schon im Englischen, der wurde jetzt ├╝bersetzt f├╝r die Knowledge

00:04:16.760 –> 00:04:22.120

Base ganz spezifisch, um hier eben zur k├╝nstlichen Intelligenz einfach diesen Beitrag mit aufzugreifen.

00:04:22.120 –> 00:04:28.080

Und damit m├Âchte ich gerne erst mal einsteigen als Impuls sozusagen oder f├╝r die, die vielleicht

00:04:28.080 –> 00:04:30.960

noch nicht genau wissen, was ist denn eigentlich k├╝nstliche Intelligenz.

00:04:30.960 –> 00:04:36.840

Relativ grob l├Ąsst sich zusammenfassen, dass es um die F├Ąhigkeit eines Computers geht

00:04:36.840 –> 00:04:43.040

oder eines computergest├╝tzten Roboters mit verschiedenen T├Ątigkeiten, die in ├Ąhnlicher

00:04:43.040 –> 00:04:47.560

Weise sozusagen ausgef├╝hrt werden wie bei intelligenten Lebewesen.

00:04:47.560 –> 00:04:49.680

Also das ist das Ziel, was dahinter ist.

00:04:49.680 –> 00:04:54.080

Und daher wird im Gegensatz zur nat├╝rlichen Intelligenz der Begriff „k├╝nstliche Intelligenz“

00:04:54.080 –> 00:04:55.080

verwendet.

00:04:55.080 –> 00:05:00.840

Ganz vieles wird im Grunde genommen auch versucht, sozusagen einigerma├čen oder eins zu eins,

00:05:00.840 –> 00:05:06.400

m├Âglich, sogar eins zu eins, von den Strukturen her oder von den Abl├Ąufen her sozusagen zu

00:05:06.400 –> 00:05:11.240

spiegeln, wie das auch bei uns im Gehirn dargestellt ist oder was wir ├╝ber das Gehirn wissen.

00:05:11.240 –> 00:05:17.000

Und deswegen sprechen wir hier in dem Zusammenhang eben von einer k├╝nstlichen Intelligenz im

00:05:17.000 –> 00:05:20.720

Unterschied zur klassischen menschlichen Intelligenz, die wir per se kennen.

00:05:20.720 –> 00:05:26.240

Ja, und k├╝nstliche Intelligenz steht somit f├╝r maschinelle Intelligenz, die aus Daten

00:05:26.240 –> 00:05:31.240

gewonnene Informationen nutzt, um komplexe Aufgaben zu l├Âsen, die Forschung voranzutreiben

00:05:31.240 –> 00:05:35.360

und Ereignisse und menschliches Verhalten besser vorherzusagen.

00:05:35.360 –> 00:05:41.240

Und infolgedessen entstehen immer mehr intelligente Maschinen, die wie Menschen arbeiten und reagieren

00:05:41.240 –> 00:05:42.240

k├Ânnen.

00:05:42.240 –> 00:05:46.840

Und eine bahnbrechende Technologie ist das, von der wir hier sprechen, die in Kombination

00:05:46.840 –> 00:05:50.800

mit anderen Technologien unsere Welt eben zunehmend ver├Ąndert.

00:05:50.800 –> 00:05:57.000

Das war jetzt, das ist jetzt keine neue Erkenntnis, das haben wir die letzten

00:05:57.000 –> 00:06:01.600

Jahre immer wieder auch gesagt. Nur im Unterschied gab es jetzt eine

00:06:01.600 –> 00:06:07.440

Entwicklung erst vor kurzem, vor einigen Monaten, dass eben Chat GPT ein Tool,

00:06:07.440 –> 00:06:13.840

das KI gest├╝tzt ist, ja, dass das marktzug├Ąnglich gemacht wurde. Und das

00:06:13.840 –> 00:06:17.560

hat dazu gef├╝hrt, dass wir, obwohl wir im Alltag schon bewusst oder unbewusst

00:06:17.560 –> 00:06:22.800

ganz viel mit KI im Grunde genommen schon arbeiten, dass jetzt der eine oder andere

00:06:22.800 –> 00:06:27.760

realisiert hat, oh, was passiert denn da eigentlich? Das hei├čt, das, was vorher f├╝r viele nicht

00:06:27.760 –> 00:06:34.080

sichtbar war, ist nun sichtbar geworden, was dazu f├╝hrt, dass es viele, viele Diskussionen

00:06:34.080 –> 00:06:39.400

rund um die KI gibt, Gefahren, Sorgen und, und, und, was da alles angesprochen wird.

00:06:39.400 –> 00:06:45.320

Wichtig nochmal ganz, ganz, ganz stark zu unterstreichen, es ist keine neue Technologie,

00:06:45.320 –> 00:06:49.640

sondern die Technologie, an der wird schon sehr, sehr lange gearbeitet.

00:06:49.640 –> 00:06:55.440

Und das hei├čt nur ├╝ber diese Marktdurchdringung mit Chat-GPT, mit dem kostenfreien Zugang

00:06:55.440 –> 00:07:01.280

und unser Bewusstsein, das darauf gesch├Ąrft wurde, f├╝r viele gesch├Ąrft wurde, entsteht

00:07:01.280 –> 00:07:05.460

jetzt die Situation, dass pl├Âtzlich ├╝ber etwas diskutiert wird, was vorher nicht so

00:07:05.460 –> 00:07:08.360

stark in den Medien einfach anzutreffen war.

00:07:08.360 –> 00:07:10.560

Also das vielleicht erstmal so anbei.

00:07:10.560 –> 00:07:17.200

Und ja, und Chat-GPT ist ja nur ein Beispiel. Wie gesagt, KI-Tools werden in vielen, vielen

00:07:17.200 –> 00:07:23.840

Kontexten eingesetzt und auch genutzt. Und letztendlich handelt es sich hierbei um ein

00:07:23.840 –> 00:07:28.880

Tool wie auch viele andere Tools, die wir bisher kennen. Also ihr kennt das aus der

00:07:28.880 –> 00:07:33.160

t├Ąglichen Arbeit, ob das E-Mails sind, ob das irgendwelche Programme, Softwareprogramme

00:07:33.160 –> 00:07:38.240

sind, die wir nutzen. Es geht letztendlich darum, eine Effizienzsteigerung dadurch zu

00:07:38.240 –> 00:07:42.760

erzielen, schneller gewisse Arbeitsergebnisse zu liefern. Und das

00:07:42.760 –> 00:07:47.400

bahnbrechende hier an dem System ist eben dieses Deep Learning im Hintergrund.

00:07:47.400 –> 00:07:53.080

Das hei├čt, dieses Machine Learning, was hier stattfindet, dass Informationen,

00:07:53.080 –> 00:07:57.160

die eingespeist werden, sozusagen auch wieder neu zusammenerkannt und neu

00:07:57.160 –> 00:08:01.480

zusammengesetzt werden k├Ânnen. Und daraus entsteht eben nochmal eine

00:08:01.480 –> 00:08:05.320

Potenzierung der Effizienzsteigerungsm├Âglichkeiten, die wir hier

00:08:05.320 –> 00:08:11.000

haben. Und dadurch, dass unser Gehirn sehr, sehr stark linear sich alles nur

00:08:11.000 –> 00:08:15.880

vorstellt und denkt, haben wir teilweise wirklich Schwierigkeiten nachzuvollziehen,

00:08:15.880 –> 00:08:22.800

welche Potenzierung hier jetzt die n├Ąchsten Wochen, Monate, Jahre auf uns

00:08:22.800 –> 00:08:27.200

sozusagen zurollt. Und das ist nat├╝rlich immer mit zwei Seiten zu betrachten. Also

00:08:27.200 –> 00:08:30.280

auch die Sorgen sind nicht unbegr├╝ndet. Man kann jetzt hier noch mal genauer

00:08:30.280 –> 00:08:33.680

gucken, welche Sorgen gibt es denn und welche sind begr├╝ndet oder unbegr├╝ndet.

00:08:33.680 –> 00:08:37.480

Das ist mal so auf der ethischen Ebene in Anf├╝hrungsstrichen oder auch gesellschaftlichen

00:08:37.480 –> 00:08:41.780

Ebene zu diskutieren. Und die anderen Aspekte und das ist das, was wir uns heute allerdings

00:08:41.780 –> 00:08:44.840

auch noch mal genauer anschauen wollen, ist eben dieser Aspekt.

00:08:44.840 –> 00:08:48.480

Ja, was, welche, wo kann ich das alles einsetzen?

00:08:48.480 –> 00:08:52.000

Welche Auswirkungen hat das denn auch auf die Arbeitswelt und wohin entwickeln wir uns

00:08:52.000 –> 00:08:57.200

eigentlich? Da hier mal so ein bisschen Gehirn jonglieren, durchzuf├╝hren, um gemeinsam

00:08:57.200 –> 00:08:58.280

einfach mal zu gucken.

00:08:58.280 –> 00:09:03.280

Und in dem Zusammenhang m├Âchte ich gerne neben ganz vielen anderen Anwendungsfeldern, die

00:09:03.280 –> 00:09:08.280

ihr dann auch mit reinbringen k├Ânnt. Auch die Br├╝cke bauen zu dem Link, den ich f├╝r heute

00:09:08.280 –> 00:09:13.520

mitgebracht habe und auch die Br├╝cke bauen zu der gestrigen Veranstaltung, denn die gestrige

00:09:13.520 –> 00:09:21.720

Veranstaltung von Dr. Johanna Dahm mit den grandiosen Mitautoren, mit und mit Herausgebern,

00:09:21.720 –> 00:09:28.640

tollen tollen G├Ąsten wie Uwe Bingel, Julian Backhaus, Mick Knauf, Tisci, also Roland Tisci

00:09:28.640 –> 00:09:34.640

und vielen, vielen mehr, war wirklich eine Inspiration, ein Feuerwerk pur. Es ging um

00:09:34.640 –> 00:09:39.600

Entscheidungen und auch, welche Rolle eben auch Entscheidungen treffen, wie man mit Entscheidungen

00:09:39.600 –> 00:09:47.200

zum Erfolg kommt. Und ich finde, das passt wunderbar zu unserem Thema, denn ja, KI hat

00:09:47.200 –> 00:09:54.920

ja verschiedene Bereiche, in denen wir es einsetzen k├Ânnen. Und eines der Bereiche ist eben der Kontext

00:09:54.920 –> 00:09:57.640

des Buchschreibens und der Autorenschaft.

00:09:57.640 –> 00:10:00.160

Ich hatte das ja schon an einigen Stellen platziert.

00:10:00.160 –> 00:10:04.400

Ihr wisst, dass die magische Hex zur optimalen Nutzung von Chachibiti

00:10:04.400 –> 00:10:07.600

erstelle, dein eigenes Fachbuch mithilfe von KI

00:10:07.600 –> 00:10:10.960

auch genau als Pilot sozusagen entstanden ist,

00:10:10.960 –> 00:10:14.040

um Menschen, die wenig bisher mit KI zu tun hatten,

00:10:14.040 –> 00:10:18.480

einfach mal zu demonstrieren, was damit machbar ist.

00:10:18.480 –> 00:10:20.480

Nat├╝rlich kann man sich das Buch anschauen

00:10:20.480 –> 00:10:21.720

und nat├╝rlich kann man sagen,

00:10:21.720 –> 00:10:24.480

das kann ich aber doch viel besser schreiben oder Sonstiges.

00:10:24.560 –> 00:10:29.240

Aber, und das war Sinn und Zweck, einfach mal zu zeigen, was theoretisch mit dieser

00:10:29.240 –> 00:10:31.480

Effizienzsteigerung einfach auch m├Âglich ist.

00:10:31.480 –> 00:10:36.400

Denn dieses Buch ist in diesem Piloten sozusagen, der hier gestartet wurde, um das zu demonstrieren,

00:10:36.400 –> 00:10:39.080

innerhalb von 24 Stunden entstanden.

00:10:39.080 –> 00:10:44.480

Und ich finde, das ist ein Wow-Effekt, weil das zeigt einfach, was m├Âglich ist.

00:10:44.480 –> 00:10:50.440

Gleichzeitig, energetisiert gestern von der Veranstaltung, habe ich dann nochmal heute

00:10:50.440 –> 00:10:54.960

Morgen, ich bin relativ fr├╝h aufgestanden, nachdem ich gestern wirklich schon relativ

00:10:54.960 –> 00:11:00.880

schnell tot umgefallen bin nach der Veranstaltung, weil ich m├╝de war, habe ich dann doch angefangen,

00:11:00.880 –> 00:11:02.080

noch mal zu reflektieren.

00:11:02.080 –> 00:11:04.440

Und mir ist eines aufgefallen bei den Gespr├Ąchen.

00:11:04.440 –> 00:11:11.280

Obwohl da so tolle Menschen mit dabei waren, die dann auf der einen Seite eben aufzeigen,

00:11:11.280 –> 00:11:15.080

wie wichtig eben auch diese Entscheidungen sind, um in Richtung Erfolg, was auch immer

00:11:15.080 –> 00:11:17.320

das f├╝r euch bedeutet, zu laufen.

00:11:17.320 –> 00:11:19.200

Ja, und was es eben braucht.

00:11:19.200 –> 00:11:24.200

Und gleichzeitig tappen wir alle immer wieder in die gleiche Falle.

00:11:24.200 –> 00:11:26.200

Und da nehme ich mich selbst nicht aus.

00:11:26.200 –> 00:11:33.200

Und zwar nehme ich die Falle, zu sagen, ja, als n├Ąchstes steht das und das an, aber das hat jetzt noch mal ein bisschen Zeit.

00:11:33.200 –> 00:11:40.200

Und interessanterweise haben mich gestern ganz viele Menschen angesprochen, ob das um Mentorings ging, ob das um Buchprojekte ging usw.

00:11:40.200 –> 00:11:42.200

Und die Buchprojekte standen im Vordergrund.

00:11:42.200 –> 00:11:48.200

Das hei├čt, viele Autoren, die da mitgemacht haben, haben gesagt, ja, als n├Ąchstes wei├č ich, es steht jetzt das n├Ąchste Buchprojekt an.

00:11:48.200 –> 00:11:50.560

Ich gucke mal, wann ich damit starte.

00:11:50.560 –> 00:11:55.120

Ich schaue mal heute noch nicht, irgendwann morgen, in Anf├╝hrungsstrichen.

00:11:55.120 –> 00:12:00.040

Und da sind wir n├Ąmlich in dieser menschlichen Falle mit dem im Kontext der Entscheidungen.

00:12:00.040 –> 00:12:05.520

Und gerade im Kontext von KI hat das jetzt eine massive Auswirkung und auf die m├Âchte

00:12:05.520 –> 00:12:11.200

ich noch mal sensibilisieren, nicht aufzuschieben, sondern wirklich auch in die Umsetzung zu

00:12:11.200 –> 00:12:13.800

gehen, Entscheidungen zu treffen, loszulaufen.

00:12:13.800 –> 00:12:17.480

Denn in dem Moment, wo ich loslaufe, kommt auch der Rest.

00:12:17.480 –> 00:12:21.680

Nur wenn ich gar nicht erst starte, sondern immer wieder nur aufschiebe, dann passiert

00:12:21.680 –> 00:12:22.680

eben nicht so viel.

00:12:22.680 –> 00:12:26.680

Und die Frage habe ich gestern auch schon an jemanden formuliert.

00:12:26.680 –> 00:12:31.600

Die Frage ist nicht, welchen Preis zahle ich daf├╝r, sondern auch mal die Frage zu

00:12:31.600 –> 00:12:37.360

stellen, welchen Preis zahle ich daf├╝r, nicht angetreten zu sein oder nicht gestartet zu

00:12:37.360 –> 00:12:38.360

sein.

00:12:38.360 –> 00:12:41.920

Und die Frage habe ich in einem Kontext sehr pers├Ânlich gestern gestellt, mit in einem

00:12:41.920 –> 00:12:47.800

pers├Ânlichen Gespr├Ąch, wo jemand seit zwei Jahren etwas ├╝berlegt und noch nicht gestartet ist. Also

00:12:47.800 –> 00:12:52.640

es war, ich m├Âchte jetzt hier keinen Namen nennen, aber das war wirklich sehr konkret an der Stelle.

00:12:52.640 –> 00:12:57.760

Und wenn wir zur├╝ckblicken, es sind zwei Jahre vergangen und in der Zwischenzeit ist viel passiert,

00:12:57.760 –> 00:13:03.640

aber das, was diese Person urspr├╝nglich vorhatte, ist in keinster Weise an der Stelle vorangeschritten.

00:13:03.640 –> 00:13:08.400

Und aus diesem Grund habe ich euch jetzt diesen Link heute auch noch mal mitgebracht und m├Âchte

00:13:08.400 –> 00:13:13.800

das hier auch nochmal platzieren, gerade im Kontext der KI, denn das ist eines der Anwendungsbereiche,

00:13:13.800 –> 00:13:20.280

die wir hier haben, mit denen ich auch tagt├Ąglich auch arbeite. Und zwar ist das die Membership

00:13:20.280 –> 00:13:26.960

Bestselling Authors Club. Und Bestselling Authors Club, also da geht es im Grunde genommen f├╝r alle,

00:13:26.960 –> 00:13:32.880

die mit dem Gedanken spielen, ein Buch zu publizieren, ist das die Rundum-Mitgliedschaft

00:13:32.880 –> 00:13:37.720

f├╝r alle, die bereit sind, die extra Meile zu gehen. Das hei├čt, es ist eine Schritt-f├╝r-Schritt-Begleitung

00:13:37.720 –> 00:13:43.580

von der Idee bis zur Implementierung, sowohl f├╝r E-Book, Taschenbuch, Hardcover, H├Ârbuch,

00:13:43.580 –> 00:13:48.840

was auch immer man da ver├Âffentlichen m├Âchte, inklusive Marketingstrategien und Ma├čnahmen,

00:13:48.840 –> 00:13:54.400

sowohl in der Vorbereitung als auch im Hinblick auf den Bestseller-Status und dann auch das

00:13:54.400 –> 00:13:59.720

Marketing danach, denn das vergessen h├Ąufig ganz viele, dass das nicht fertig ist, sozusagen

00:13:59.720 –> 00:14:05.160

in Anf├╝hrungsstrichen, mit der Publikation, sondern danach erst richtig losgeht, f├╝r

00:14:05.160 –> 00:14:11.400

Einsatz und Vertrieb mit maximalen Mehrwert. Und on top gibt es jetzt noch etwas, was n├Ąmlich

00:14:11.400 –> 00:14:16.880

hinzukommt und das m├Âchte ich heute sozusagen mit ganz gro├čer Freude auch an der Stelle verk├╝nden

00:14:16.880 –> 00:14:23.120

und bewerben, n├Ąmlich was neu ist, sind die KI-gest├╝tzten Tools. Das hei├čt, es geht nicht

00:14:23.120 –> 00:14:28.320

nur darum, wie schreibe ich, was ist marketingm├Ą├čig wichtig und so weiter, sondern auch die

00:14:28.320 –> 00:14:35.560

entsprechenden KI-gest├╝tzten Tools aufzuzeigen, die wir im deutschsprachigen Markt f├╝r uns daf├╝r auch

00:14:35.560 –> 00:14:42.600

nutzen k├Ânnen, um bei der Umsetzung des Vorhabens eine tausendfache Beschleunigung zu erzielen. Und

00:14:42.600 –> 00:14:49.920

insofern, ja, schaut’s euch an. Wer wirklich mit dem Gedanken spielt, nutzt die Gelegenheit. Es ist

00:14:49.920 –> 00:14:54.360

f├╝r ein Jahr und es ist nicht nur irgendwie online und irgendwelche Kurse, die ihr euch oder Videos,

00:14:54.360 –> 00:14:59.720

die ihr euch anschauen k├Ânnt, sondern eben auch mit einer regelm├Ą├čigen monatlichen live online

00:14:59.720 –> 00:15:05.040

Begleitung, wo und das finde ich total wichtig, damit man eben hier dann auch die M├Âglichkeit hat,

00:15:05.040 –> 00:15:09.920

Fragen zu formulieren, damit man beim n├Ąchsten Mal auch mal wieder gefragt wird, wo stehst du

00:15:09.920 –> 00:15:15.680

denn eigentlich? Bist du drei Schritte weitergekommen oder ja, oder ist es wieder nur beim

00:15:15.680 –> 00:15:21.960

Vorhaben geblieben? Und ich glaube gerade diese diese Accountability, dieses Nachhalten und so

00:15:21.960 –> 00:15:26.360

Das ist auch etwas, was wir brauchen, was uns eben an dieser Stelle voranbringt.

00:15:26.360 –> 00:15:31.080

Deswegen m├Âchte ich das als erstes Beispiel hier an der Stelle mit einbringen.

00:15:31.080 –> 00:15:37.120

K├╝nstliche Intelligenz, einer der Bereiche, die wir tagt├Ąglich nutzen und einsetzen,

00:15:37.120 –> 00:15:41.640

ist hier an der Stelle eben im Kontext von Buchautorenschaften.

00:15:41.640 –> 00:15:46.280

Und wie kann ich eben diese Tools auch letztendlich nutzen und einsetzen?

00:15:46.280 –> 00:15:47.280

Was kann ich damit machen?

00:15:47.280 –> 00:15:50.520

Und das ist weit mehr als nur den Text zu schreiben oder so was, das vielleicht nochmal

00:15:50.520 –> 00:15:56.280

by the way erw├Ąhnt, was die Tools hier eben an M├Âglichkeiten auftun, die ich nutzen kann,

00:15:56.280 –> 00:16:02.640

um viel effektiver in eine Sichtbarkeit zu kommen, das Marketing entsprechend zu gestalten.

00:16:02.640 –> 00:16:08.840

Ja, angefangen von Bildern, die sich gestalten lassen, ├╝ber textliche Abschnitte, ├╝ber

00:16:08.840 –> 00:16:11.800

Postings, ├╝ber Social Media Marketing und so weiter.

00:16:11.800 –> 00:16:17.260

Also alles in der Bandbreite, was ich dann nicht nur im Kontext der Buchautorenschaft

00:16:17.260 –> 00:16:22.780

hier f├╝r mich nutzen kann, sondern auch alles, was mit Marketing in anderem Kontext f├╝r

00:16:22.780 –> 00:16:25.700

mein Unternehmen und f├╝r meine Unternehmung zu tun haben.

00:16:25.700 –> 00:16:32.140

So, das ist mal ein Beispiel, wo die KI heute eingesetzt hat und uns in unseren Vorhaben

00:16:32.140 –> 00:16:40.180

und in unserer Geschwindigkeit massiv Potenziale sichert, entfalten l├Ąsst, tausendfach beschleunigen

00:16:40.180 –> 00:16:41.180

l├Ąsst.

00:16:41.180 –> 00:16:44.620

Nat├╝rlich d├╝rfen wir auf der einen oder anderen Seite auch die Entschleunigung nicht

00:16:44.620 –> 00:16:45.620

vergessen.

00:16:45.620 –> 00:16:50.740

gerne unterstreichen, denn wenn ich aber, wenn ich die M├Âglichkeit habe zu beschleunigen,

00:16:50.740 –> 00:16:55.260

dann habe ich ja auch an der anderen Stelle die M├Âglichkeit, wieder in die Entschleunigung,

00:16:55.260 –> 00:16:59.140

also durch den Freiraum, der mir geschaffen wurde, auch hier wieder zu nutzen. Und das,

00:16:59.140 –> 00:17:04.340

auch das finde ich eine gro├čartige M├Âglichkeit. Ja, das ist mal so ein Beispiel. Es gibt noch

00:17:04.340 –> 00:17:07.780

viel mehr. Ich kann noch viel mehr Beispiele reinbringen, aber ich m├Âchte ganz gerne jetzt

00:17:07.780 –> 00:17:15.060

wirklich gucken, dass wir aus diesem Monolog-Modus rauskommen und gemeinsam hier einsteigen in einen

00:17:15.060 –> 00:17:23.280

gemeinsamen Austausch, in eine gemeinsame Reflexion. Was sind denn so die, ja, in der Arbeitswelt,

00:17:23.280 –> 00:17:27.320

die Bereiche, wo ihr vielleicht heute auch schon KI nutzt, wo ihr wisst, dass wir KI

00:17:27.320 –> 00:17:32.080

einsetzen, im Hintergrund KI l├Ąuft, dass wir da darauf noch mal sensibilisieren k├Ânnen,

00:17:32.080 –> 00:17:36.280

um dann auch noch mal gemeinsam zu schauen und zu ├╝berlegen, was sind das denn eigentlich

00:17:36.280 –> 00:17:42.000

f├╝r Auswirkungen, die das Ganze jetzt auf unsere Arbeitswelt haben wird. Ja, und damit

00:17:42.000 –> 00:17:46.000

begr├╝├če ich ganz herzlich Marc. Einen wundersch├Ânen guten Morgen. Ich hoffe, du bist fit.

00:17:46.000 –> 00:17:51.640

Guten Morgen. Ja, ich bin fit. Ich hatte das gro├če Gl├╝ck, auch auf dieser Veranstaltung zu sein.

00:17:51.640 –> 00:17:56.800

Ich hatte auch nur vier Stunden Schlaf, aber es war fantastisch. Und sehr, sehr viele Themen,

00:17:56.800 –> 00:18:02.040

das k├Ânnen wir auch sagen. Ich habe Yasemin dann nat├╝rlich gesehen und habe mir zugelegt. Und ganz,

00:18:02.040 –> 00:18:05.600

ganz viele Themen, die wir hier besprochen haben, sind auch aufgegriffen worden. Also wir sind nicht

00:18:05.600 –> 00:18:09.000

die einzigen, die sich mit diesen Themen besch├Ąftigen. Bevor ich jetzt konkret zum

00:18:09.000 –> 00:18:12.160

Thema was sagen m├Âchte, m├Âchte ich eine Erkenntnis mit euch teilen, die ist wichtig,

00:18:12.160 –> 00:18:15.880

bevor ich zu meinem Statement komme. Mir ist gestern auch wieder bewusst geworden,

00:18:15.880 –> 00:18:20.120

wir beziehen ja Informationen. In Unternehmen beziehen wir Informationen und auch von der

00:18:20.120 –> 00:18:24.760

Presse beziehen wir Informationen. Und was ich immer wieder feststelle oder immer wieder selber

00:18:24.760 –> 00:18:30.440

anwenden muss, dass wir pr├╝fen, wer gibt diese Informationen raus, wo ist der Wahrheitsgehalt

00:18:30.440 –> 00:18:35.320

dieser Information, welchen Zweck hat der, der die Informationen rausgibt, geht es nur in den

00:18:35.320 –> 00:18:38.880

Mehrwert? Und dass wir uns auch immer wieder bewusst machen, und da komme ich gleich mit einem

00:18:38.880 –> 00:18:42.440

Beispiel dazu, dass diese Informationen, wenn die von der Presse kommen, das sind

00:18:42.440 –> 00:18:46.900

keine schlechten Menschen, aber negative Schlagzeilen verdienen wir Geld. Also die

00:18:46.900 –> 00:18:50.520

Presse informiert uns, aber um die Zeitung verkaufen zu k├Ânnen, m├╝ssen wir uns

00:18:50.520 –> 00:18:53.480

aufschrecken. Und das kann ich euch erkl├Ąren in einem kleinen Beispiel. Wenn

00:18:53.480 –> 00:18:57.360

wir uns mit dem Thema KI besch├Ąftigen, dann habe ich jetzt, finde ich im

00:18:57.360 –> 00:19:01.040

Internet mehrere M├Âglichkeiten. Die erste M├Âglichkeit, die einem sofort ins

00:19:01.040 –> 00:19:05.680

Auge schie├čt, sind Achtung, 800 Millionen Jobs werden von der KI betroffen sein.

00:19:05.680 –> 00:19:12.040

Ups, denke ich, 800 Millionen Jobs. Oh man, das ist aber eine ganze Menge. Da wird erstmal die Angst gesch├╝rt.

00:19:12.040 –> 00:19:18.680

Oder, Mann, Mann, Mann, was kommt da auf uns zu? Wenn man aber weiter recherchiert, findet man auch andere Nachrichten, die dann stehen.

00:19:18.680 –> 00:19:28.600

80 Prozent der Arbeitnehmer werden dann unterst├╝tzt oder sind in Berufen t├Ątigt, in denen mindestens eine Aufgabe durch die KI schneller erledigt werden k├Ânne.

00:19:28.600 –> 00:19:33.400

Wenn ich dieses beiden Texte gegen├╝ber stelle, zum einen kann eine Arbeit schnell erledigt werden

00:19:33.400 –> 00:19:39.680

oder zum anderen sind 800 Millionen Jobs betroffen, erzeugt das komplett unterschiedliche Gef├╝hle.

00:19:39.680 –> 00:19:44.480

Das erst mal als Einstieg. Und bevor ich auch darauf eingehe, welche Berufe wegfallen,

00:19:44.480 –> 00:19:49.320

ist mir auch ganz, ganz wichtig, da nochmal anzufangen, damit wir haben auch gestern,

00:19:49.320 –> 00:19:53.680

haben wir einen fantastischen Vortrag geh├Ârt. Ich hoffe, der Mann kommt einmal zum Autoren-Fr├╝hst├╝ck

00:19:53.680 –> 00:20:01.200

von Mick Nauf, ein deutscher Wirtschaftsjournalist, der das Thema B├Ârse, das Thema Finanzen so

00:20:01.200 –> 00:20:03.760

fantastisch aufgearbeitet hat.

00:20:03.760 –> 00:20:07.920

Und wenn jemand zu mir gesagt h├Ątte, Marc, hast du nicht Lust, morgen Abend zu mir zu

00:20:07.920 –> 00:20:12.280

einer Veranstaltung zu gehen, da geht es um Aktien oder um Finanzen und da spricht jemand

00:20:12.280 –> 00:20:14.640

von einer Bank, dann h├Ątte ich gesagt, bist du bescheuert?

00:20:14.640 –> 00:20:15.840

Nee, also bei aller Liebe nicht.

00:20:15.840 –> 00:20:18.640

Ich sitze dann lieber drau├čen auf meiner Terrasse und gucke mir B├Ąume an.

00:20:18.640 –> 00:20:24.560

Und dieser Mensch hat das Thema, dieser Mignauf hat das Thema so aufbearbeitet mit einer Wahnsinnsbegeisterung,

00:20:24.560 –> 00:20:28.080

mit einer Simplifizierung, wie die M├Ąrkte verstehen.

00:20:28.080 –> 00:20:30.760

Einfach nur, und da muss man auch nicht studiert haben, sondern,

00:20:30.760 –> 00:20:33.760

dass wir einfach ab und zu unser normales Gehirn einschalten

00:20:33.760 –> 00:20:36.960

und wir da sehr, sehr viele Antworten bekommen.

00:20:36.960 –> 00:20:39.960

Und jetzt, was ich angedeutet habe, dann bin ich auch fertig.

00:20:39.960 –> 00:20:42.560

Was macht KI, bevor wir die Berufe aufz├Ąhlen?

00:20:42.560 –> 00:20:45.360

KI sammelt Information,

00:20:45.360 –> 00:20:52.560

KI wird Informationen aufbereiten und KI wird auch Basisinformationen weiterleiten.

00:20:52.560 –> 00:20:56.920

Und wenn man das erstmal so stehen l├Ąsst, dann f├Ąllt einem n├Ąmlich ganz automatisch ein,

00:20:56.920 –> 00:21:02.080

welche Berufe davon betroffen werden k├Ânnen. Also Informationen sammeln, aufbereiten und weitergeben.

00:21:02.080 –> 00:21:06.840

Und auf die Berufe gehe ich jetzt erstmal nicht ein und freue mich, dass J├╝rgen auch mit dazu gekommen ist.

00:21:06.840 –> 00:21:10.320

Ja, gro├čartig. Vielen, vielen lieben Dank.

00:21:10.320 –> 00:21:14.840

Und ich habe den Kontakt direkt heute hergestellt, jetzt ├╝ber LinkedIn.

00:21:14.840 –> 00:21:18.360

Und er hat ja im Prinzip gestern schon zugesagt, zumindest m├╝ndlich.

00:21:18.360 –> 00:21:26.040

Jetzt schauen wir mal, dass wir den Kontakt herstellen und dass wir ihn zu einem Autoren-Fr├╝hst├╝ck oder Experten-Talk oder was auch immer dann einladen.

00:21:26.040 –> 00:21:37.880

Das hei├čt, wir haben nat├╝rlich gestern gleich mitgedacht und geschaut, dass wir die verschiedene Kontakte, die hier gekn├╝pft werden, nat├╝rlich auch hier f├╝r die Community einfach nutzen und zug├Ąnglich machen.

00:21:37.880 –> 00:21:40.480

Und insofern bin ich gespannt. Dr├╝cken wir einfach mal die Daumen.

00:21:40.480 –> 00:21:43.360

J├╝rgen, einen wundersch├Ânen guten Morgen. Was sagst du denn zu dem Thema?

00:21:43.360 –> 00:21:50.720

Einen wundersch├Ânen guten Morgen, liebe Yasemin. Guten Morgen, lieber Marc und alle im Raum.

00:21:50.720 –> 00:21:54.440

Ja, ich hoffe, ich kriege das noch alles zusammen.

00:21:54.440 –> 00:22:00.400

Du hast so viele Trigger Points bei mir gesetzt durch deine Vorrede und auch du,

00:22:00.400 –> 00:22:04.240

lieber Marc, mit deiner Ann├Ąherung an das Thema ├╝ber die KI.

00:22:04.240 –> 00:22:11.840

Ich werde mit meinem Statement mich von der anderen Seite n├Ąhern, n├Ąmlich von der Seite

00:22:11.840 –> 00:22:18.520

der Intelligenz. Und ich n├Ąhere mich oder platziere diesen Beitrag „Wof├╝r?“, „Frage

00:22:18.520 –> 00:22:26.440

wof├╝r?“ im Sinne der Reduzierung der Komplexit├Ąt. Und das war auch so ein Trigger, liebe Yasemin,

00:22:26.440 –> 00:22:33.600

von dir, dass ich sage, ja, es ist ein, es ist in Anf├╝hrungsstrichen menschlich, dass man sehr

00:22:33.600 –> 00:22:41.640

oft sagt, auch in der Projektarbeit insbesondere, da ist jetzt nicht die Zeit dazu oder da ist noch

00:22:41.640 –> 00:22:48.360

nicht die Zeit dazu gekommen. Ich habe die Erfahrung gemacht, dass ein wesentlicher Einflussfaktor

00:22:48.360 –> 00:22:54.200

daf├╝r, dieses zu sagen, die nicht ├╝berschaubare Komplexit├Ąt ist.

00:22:54.200 –> 00:22:59.880

Und deswegen jetzt hoffentlich sichtbar den Gedankenfluss von mir.

00:22:59.880 –> 00:23:04.560

Wir sind uns dar├╝ber im Garen, dass das ein Riesenthema ist,

00:23:04.560 –> 00:23:08.480

dass, ich darf jetzt diesen Wunsch mal ├Ąu├čern, eigentlich ein

00:23:08.480 –> 00:23:12.200

Dachthema f├╝r mich w├Ąre, weil es immens ist, auch von den

00:23:12.200 –> 00:23:14.200

Auswirkungen und von der Komplexit├Ąt.

00:23:14.200 –> 00:23:22.060

Aber ich m├Âchte in dem Sinne die Komplexit├Ąt vielleicht von vornherein etwas reduzieren,

00:23:22.060 –> 00:23:28.780

an dem ich euch an ein anderes Dachthema erinnere, das wir hatten. Und zwar, wie so oft, Bildung.

00:23:28.780 –> 00:23:38.140

Ihr k├Ânnt euch erinnern, da sprachen wir ├╝ber Lernen, ├╝ber Sozialisation, ├╝ber Wissen,

00:23:38.140 –> 00:23:48.060

├╝ber Intelligenz und Reflexion. Und wir waren im Verbund dessen zu dem Ergebnis gekommen,

00:23:48.060 –> 00:23:53.620

dass es eine allumfassende, allgemeing├╝ltige Definition der Intelligenz nicht gibt. Warum?

00:23:53.620 –> 00:24:01.620

Ich h├Ątte zwar eine, aber das lasse ich jetzt mal hinten anstehen. Warum? Weil es n├Ąmlich die

00:24:01.620 –> 00:24:11.260

Intelligenz nicht gibt. Wir waren ├╝berein gekommen, vielleicht erinnert ihr euch, meistens identifizieren

00:24:11.260 –> 00:24:19.100

wir oder sehen wir Intelligenz als mathematische logische Kompetenz. Es gibt aber auch eine

00:24:19.100 –> 00:24:26.340

emotionale Intelligenz, die Leute bef├Ąhigen zum Beispiel Pflegeberufe zu machen oder personelle

00:24:26.340 –> 00:24:38.180

Intelligenz, die Personen im weiteren Verlauf exponiert bef├Ąhigen, zum Beispiel F├╝hrungspositionen

00:24:38.180 –> 00:24:44.340

einzunehmen oder kinesthetische, die pr├Ądestinierter Sportler oder T├Ąnzer werden und, und, und.

00:24:44.340 –> 00:24:54.540

Also kann man noch etliches beif├╝gen. Aber das Wichtige ist, es gibt mehrere Arten von

00:24:54.540 –> 00:25:02.340

Intelligenzen. Und meine Frage ist jetzt, wenn ich mir das Thema betrachte, welchen Einfluss hat die

00:25:02.340 –> 00:25:11.820

KI, die k├╝nstliche Intelligenz, auf die Arbeitswelt? Welche Intelligenz kann denn ├╝berhaupt oder ist

00:25:11.820 –> 00:25:23.700

vornehmlich einflussnehmend auf das Arbeitsumfeld, das wir haben? Mal ein ganz oder ein pers├Ânlicher,

00:25:23.700 –> 00:25:29.780

eine pers├Ânliche Meinung von mir. Ich sehe die KI durchaus im mathematisch-logischen Kontext

00:25:29.780 –> 00:25:36.620

als platzierbar und wahrscheinlich im Hauptaufmarschfeld der n├Ąchsten Jahre. Aber

00:25:36.620 –> 00:25:45.540

im kinesthetischen, das mag vielleicht l├Ącherlich klingen, Sportler oder Artisten auf der B├╝hne,

00:25:45.540 –> 00:25:48.540

Das wird es nicht geben.

00:25:48.540 –> 00:25:53.540

Und insofern, lieber Mark, ist genau das, und du sprachst mir aus der

00:25:53.540 –> 00:25:58.540

Seele, genau dieses dem unreflektierten von vornherein mal

00:25:58.540 –> 00:26:03.540

mit einem Hype-Ausrufzeichen versehenden Aussagen,

00:26:03.540 –> 00:26:06.540

das wird die ganze Arbeitswelt ver├Ąndern.

00:26:06.540 –> 00:26:11.540

No way, das behaupte ich jetzt mal nicht.

00:26:11.540 –> 00:26:18.420

Und meine Begr├╝ndung daf├╝r hoffe ich eben gegeben zu haben, weil Intelligenz unter ganz

00:26:18.420 –> 00:26:29.380

verschiedenen Facetten zu sehen ist. Und in Bezug auf die Ausgestaltung und die Entwicklung in der

00:26:29.380 –> 00:26:39.020

Zeit f├╝r die KI, da habe ich auch zum Teil sicherlich etwas diametrale Meinungen dazu,

00:26:39.020 –> 00:26:44.460

Aber das m├Âchte ich jetzt erst mal hinten anstellen, ob wir ├╝berhaupt zu diesem Thema kommen.

00:26:44.460 –> 00:26:48.860

Also das mein erster Input zu diesem Thema.

00:26:48.860 –> 00:26:58.580

Reduzieren auf das, was ├╝berhaupt m├Âglich ist und aus heutiger Sicht als wahrscheinlich erachtet werden.

00:26:58.580 –> 00:27:00.580

Ich glaube, das hilft. Vielen Dank.

00:27:00.580 –> 00:27:06.020

Ja, vielen, vielen lieben Dank und lass mich hier gerne noch mal kurz nachhaken,

00:27:06.020 –> 00:27:13.700

um auch sicherzustellen, dass wir dich richtig verstanden haben. Was genau in der Arbeitswelt

00:27:13.700 –> 00:27:18.980

ver├Ąndert sich denn aus deiner Sicht nicht durch die KI? Vielleicht kannst du hier ein paar ganz

00:27:18.980 –> 00:27:27.220

konkrete Beispiele machen. Also, liebe Yasemin, ich habe sehr viel dar├╝ber gelesen, aber ich

00:27:27.220 –> 00:27:35.780

schwinge mich nicht auf, mir das Pr├Ądikat Experte da zuordnen zu wollen. Aber ein Ansatzpunkt f├╝r

00:27:35.780 –> 00:27:41.940

die gedankliche Auseinandersetzung f├╝r mich, du merkst, ich versuche mich etwas zur├╝ckzuziehen,

00:27:41.940 –> 00:27:54.440

ist die Klassifizierung nach Routine, wo ich durchaus eine, und jetzt bitte an meine vorher

00:27:54.440 –> 00:28:07.400

Ausf├╝hrungen. Eine mathematisch logisch basierte KI wird sicherlich bei vielen Routinearbeiten eine

00:28:07.400 –> 00:28:12.920

Unterst├╝tzung, lieber Marc, ja schon mal Unterscheidung zwischen Unterst├╝tzung und

00:28:12.920 –> 00:28:22.680

Ersatz liefern k├Ânnen. Aber Routine hat zwei Aspekte. Es gibt eine geistige Routine und es

00:28:22.680 –> 00:28:27.960

Es gibt eine k├Ârperliche Routine, wie zum Beispiel Z├Ąhneputzen jeden Tag.

00:28:27.960 –> 00:28:40.000

Da tut sich f├╝r mich eigentlich schon mal die erste Verschlankung der Komplexit├Ąt auf,

00:28:40.000 –> 00:28:49.560

indem ich sage, es werden ganz bestimmte geistige Routinen ersetzt werden k├Ânnen, wie zum Beispiel,

00:28:49.560 –> 00:28:52.200

was wir im Moment sehen, Daten sammeln.

00:28:52.200 –> 00:28:57.000

Ich habe im famili├Ąren Umkreis ein sehr gutes Beispiel,

00:28:57.000 –> 00:29:00.040

ich will es nicht zu lang werden lassen, weil ich habe gesehen,

00:29:00.040 –> 00:29:03.440

leider ist jetzt noch der Zug gekommen, aber der ist Partner in

00:29:03.440 –> 00:29:09.040

der Steuerkanzlei und das Gleiche gilt f├╝r Rechtsanw├Ąlte.

00:29:09.040 –> 00:29:14.280

Die Kernarbeit, um ├╝berhaupt zu einer individuellen Entscheidung zu

00:29:14.280 –> 00:29:17.600

kommen, ist das jetzt ein Steuervergehen, ja oder nein,

00:29:17.600 –> 00:29:22.800

Oder ist das ein Verbrechen oder eine Ordnungswidrigkeit und und und geht eine

00:29:22.800 –> 00:29:25.400

immense Datensammlung vorher.

00:29:25.400 –> 00:29:33.560

Und da sehe ich ganz wesentliche und jetzt mit Fragezeichen versehen

00:29:33.560 –> 00:29:39.720

Ersatzpotenzial oder Erg├Ąnzungspotenzial.

00:29:39.720 –> 00:29:41.720

Das w├Ąre f├╝r mich ├╝berhaupt ein eigenes Thema.

00:29:41.720 –> 00:29:43.560

Aber das ist f├╝r mich ein Punkt.

00:29:43.840 –> 00:29:51.640

Und in Summe nochmal ganz klar, k├Ârperliche Routinen scheiden f├╝r mich insofern aus,

00:29:51.640 –> 00:29:54.800

obwohl ich k├Ânnte jetzt ein Beispiel bringen, aber das schenke ich mir jetzt.

00:29:54.800 –> 00:29:57.360

Die gibt’s auch schon von den ├ťberlegungen her.

00:29:57.360 –> 00:30:00.680

Ich hoffe, ich habe dir deine Frage damit beantwortet.

00:30:00.680 –> 00:30:03.360

Ja, vielen, vielen lieben Dank.

00:30:03.360 –> 00:30:07.920

Und und da denke ich, bin ich jetzt mal total gespannt,

00:30:07.920 –> 00:30:11.520

auch was gleich nach Layla auch Marc vielleicht noch mit anschlie├čen mag.

00:30:12.160 –> 00:30:18.480

Auch hier d├╝rfen wir, finde ich, achtsam damit umgehen, dass wir eben nicht in entweder-oder

00:30:18.480 –> 00:30:24.960

denken, sondern wenn wir gerade diese Begriffe nochmal aufgreifen, Ersatzpotenzial oder Erg├Ąnzungspotenzial,

00:30:24.960 –> 00:30:27.760

dann haben wir ja Kettenreaktionen, die ausgel├Âst werden.

00:30:27.760 –> 00:30:32.840

Das hei├čt, in dem Moment, wo ich es als, sagen wir mal, mindestens Erg├Ąnzungspotenzial

00:30:32.840 –> 00:30:38.600

einsetze, ergibt sich ja daraus etwas, n├Ąmlich Folgendes, und das beobachten wir heute schon

00:30:38.600 –> 00:30:42.160

auch auf dem Arbeitsmarkt. Also es ist schon gestartet, das ist jetzt nichts Neues.

00:30:42.160 –> 00:30:46.480

Das in dem Moment, wo ich, und das war ja auch vorher schon so, nicht nur mit KI,

00:30:46.480 –> 00:30:50.320

sondern auch schon mit anderen Tools, in dem Moment, wo ich die M├Âglichkeit habe,

00:30:50.320 –> 00:30:56.720

das Potenzial zu erg├Ąnzen des Einzelnen, habe ich ja eine eine Wirkung, n├Ąmlich

00:30:56.720 –> 00:31:00.560

zum Beispiel, dass das Unternehmen sich ├╝berlegt, na ja gut, dann brauche ich

00:31:00.560 –> 00:31:04.560

aber in Zukunft vielleicht nicht mehr 100 Mitarbeiter, sondern nur noch 50

00:31:04.560 –> 00:31:10.880

Mitarbeiter, die dann die restliche Arbeit erledigen, weil dadurch, dass hier ein Erg├Ąnzungspotenzial

00:31:10.880 –> 00:31:17.920

gehoben wird sozusagen und damit kommen wir in der Kettenreaktion betrachtet, kommen wir

00:31:17.920 –> 00:31:23.280

auch in ein Ersatzpotenzial rein, was sich nicht ausweichen l├Ąsst.

00:31:23.280 –> 00:31:28.920

Allerdings, um dann eben jetzt auch wieder diese Negativemotionen rauszunehmen, gleichzeitig,

00:31:28.920 –> 00:31:34.200

auch wenn wir historisch betrachtet draufschauen, ist es ja nicht so, dass dann es sind zwar

00:31:34.200 –> 00:31:38.200

Es verschieben sich zwar Aufgaben, es verschieben sich Jobs und so weiter,

00:31:38.200 –> 00:31:42.200

oder wonach die Nachfrage auf dem Markt entsprechend dann da ist.

00:31:42.200 –> 00:31:48.200

Das bedeutet aber jetzt nicht unbedingt, dass das in der Kettenreaktion eine Massenarbeitslosigkeit

00:31:48.200 –> 00:31:51.200

oder sonst irgendwas ausl├Âsen muss. Und hier d├╝rfen wir dann gerne nochmal diskutieren,

00:31:51.200 –> 00:31:54.200

was dann die Auswirkungen vielleicht auch sein werden.

00:31:54.200 –> 00:31:58.200

Aber zumindest, dass es halt eben in Zukunft andere Aufgaben geben wird,

00:31:58.200 –> 00:32:01.200

andere Schwerpunkte geben wird. Und es wird auch damit einhergehen,

00:32:01.200 –> 00:32:05.520

hergehen, dass Unternehmen tats├Ąchlich, weil sie eben hier die M├Âglichkeit haben,

00:32:05.520 –> 00:32:10.260

auf weniger Mitarbeiter zu reduzieren, und das passiert heute auch schon, also dass tausende

00:32:10.260 –> 00:32:15.840

Mitarbeiter eben auch entlassen werden, weil zum Beispiel Banken entdeckt haben, naja,

00:32:15.840 –> 00:32:21.480

wir k├Ânnen ja einen Bankautomaten einsetzen, wir brauchen keinen Schalter, wir reduzieren

00:32:21.480 –> 00:32:24.720

durch das Online-Banking, und da sind wir jetzt noch nicht mal bei KI, sondern ganz

00:32:24.720 –> 00:32:29.280

allgemeine Automatisierungen, die in der Vergangenheit stattgefunden haben, die dazu f├╝hren, dass

00:32:29.280 –> 00:32:35.040

eben die Masse an Menschen in dieser T├Ątigkeit, in dieser speziellen T├Ątigkeit, die es vorher

00:32:35.040 –> 00:32:38.600

gegeben hat, so nicht mehr braucht. Daf├╝r braucht es die aber vielleicht an anderer

00:32:38.600 –> 00:32:42.040

Stelle und das ist ja dann auch nochmal spannend darauf zu gucken. J├╝rgen, du wolltest noch

00:32:42.040 –> 00:32:43.040

was erg├Ąnzen dazu.

00:32:43.040 –> 00:32:51.800

Ich danke dir, dass ich da, sorry, liebe Layla, dass ich da nochmal Bezug, weil du hast einen

00:32:51.800 –> 00:32:57.480

zweiten Punkt, den ich vorhin benannt habe, das spar ich mir jetzt, vorweggenommen. Andere

00:32:57.480 –> 00:33:04.920

die vielleicht oder die dazu angetan sind, die Komplexit├Ąt dieses Themas zu reduzieren. Und der

00:33:04.920 –> 00:33:10.640

Bankautomat ist zum Beispiel so eine Position, ist ja mein spezifischer Beritt, das Banking,

00:33:10.640 –> 00:33:15.400

dass ich auf einen Punkt komme, der ist f├╝r mich stellvertretend. Nat├╝rlich kannst du den

00:33:15.400 –> 00:33:22.000

Bankautomaten, der Bankautomat spuckt dir Geld aus, aber dem Bankautomaten kannst du nicht ins

00:33:22.000 –> 00:33:29.020

Gesicht schauen, in die Augen schauen und fragen, kann ich eigentlich dem Euro noch trauen? Das ist

00:33:29.020 –> 00:33:33.640

f├╝r mich das Thema, ich sage es jetzt mal so, einer Maschine kann man nicht in die Augen schauen

00:33:33.640 –> 00:33:43.840

und was, wenn wir nur noch Maschinen h├Ątten, w├╝rden wir uns eine Eigenschaft sparen k├Ânnen,

00:33:43.840 –> 00:33:49.800

beziehungsweise die g├Ąbe es nicht mehr, n├Ąmlich die aus der pers├Ânlichen Beziehung heraus auch

00:33:49.800 –> 00:33:57.200

im Gesch├Ąftsleben das basierende Vertrauen. Und der zweite wesentliche Punkt, auch noch mal bitte

00:33:57.200 –> 00:34:07.280

ein ganz starkes Petitum, nicht alles was m├Âglich ist, ist auch ├Âkonomisch sinnvoll. Das hei├čt,

00:34:07.280 –> 00:34:14.040

so brutal das jetzt klingt, es wird immer von Seiten eines Unternehmens die Abw├Ągung geben,

00:34:14.040 –> 00:34:20.240

was ist denn billiger? Die Maschine, die k├╝nstliche Intelligenz oder der Mensch?

00:34:20.240 –> 00:34:28.680

Und je mehr Menschen ich habe, dadurch dass KI vielleicht viele Menschen freisetzt,

00:34:28.680 –> 00:34:35.040

umso billiger wird die Ressource Mensch und umso eher komme ich zur Entscheidung, bevor ich mir

00:34:35.040 –> 00:34:40.680

da ein hochkomplexes System von Algorithmen und notwendigen Datenbasen ins Haus schaffe,

00:34:40.680 –> 00:34:48.120

dann lasse ich doch das lieber h├Ąndisch machen. Also danke nochmal, dass ich diesen Einwurf

00:34:48.120 –> 00:34:53.880

nochmal bringen durfte. Ja gerne und auch hier gibt es mit Sicherheit ganz spannende Aspekte

00:34:53.880 –> 00:34:57.920

zu diskutieren in diesem Zusammenhang. Da w├╝rde ich jetzt gerne erstmal Layla und Sabine mit

00:34:57.920 –> 00:35:00.920

einbinden und dann k├Ânnen wir ja gerne nochmal Querbez├╝ge herstellen. Layla,

00:35:00.920 –> 00:35:04.720

einen wundersch├Ânen guten Morgen. Einen wundersch├Ânen guten Morgen. Ja,

00:35:04.720 –> 00:35:09.000

also ihr habt jetzt sehr sehr viele Gedanken genannt. Ich ├╝berlege jetzt gerade, wo ich

00:35:09.000 –> 00:35:13.560

ankn├╝pfe. Ich fange ja mal an mit, also ich hoffe nicht, dass Sie ├╝berlegen, was

00:35:13.560 –> 00:35:16.600

billiger ist, weil ich habe auf dem Wirtschafts- Gymnasium mal gelernt, dass

00:35:16.600 –> 00:35:20.120

billig schlechte Qualit├Ąt hei├čt und meine Lehrerin hat mir immer gesagt, ich

00:35:20.120 –> 00:35:29.160

soll sagen g├╝nstiger. Und auch hier glaube ich, dass wir, um jetzt mal wieder

00:35:29.160 –> 00:35:34.280

den Rahmen zu finden, dass es oftmals darum geht, ich glaube, wir haben sehr

00:35:34.280 –> 00:35:40.860

sehr sehr viele Narrative auch, was wir so gesehen haben in Sendungen. So, ah, was

00:35:40.860 –> 00:35:45.320

passiert denn mit KI? Ich ├╝berlege mir das jetzt praktisch gesehen, um jetzt zu

00:35:45.320 –> 00:35:51.700

einem Beispiel zu kommen, wie kann mir die KI die Arbeitswelt erleichtern? Ich

00:35:51.700 –> 00:35:55.520

habe die auch sehr genau zugeh├Ârt, jetzt gerade was das Buch angeht. Ich fand das

00:35:55.520 –> 00:36:01.360

sehr interessant. Ich nutze das jetzt schon f├╝r die Arbeitswelt, dass ich mir

00:36:01.360 –> 00:36:05.280

Unterrichtsentw├╝rfe, dass ich da Ideen einbringen lasse.

00:36:05.280 –> 00:36:10.160

Ja, nat├╝rlich werden manche Bereiche ersetzt und es wurde ja auch gesagt, der

00:36:10.160 –> 00:36:15.520

Bankautomat ist hier schon ein Fall. Ich kenne Informatiker, mit denen habe ich

00:36:15.520 –> 00:36:20.880

gesprochen, die arbeiten schon mit der Version von Chat GPT 4. Ich habe sie auch

00:36:20.880 –> 00:36:27.440

gefragt, ob sie Angst haben, ersetzt zu werden. Sie haben gesagt nein, weil das und das kann

00:36:27.440 –> 00:36:32.000

die KI nicht. Nat├╝rlich kann man sagen, sie entwickelt sich sehr schnell. Wenn ich jetzt

00:36:32.000 –> 00:36:38.680

von meinem Beruf ausgehe, ich bin ja Ethiklehrerin, das, was ich, jetzt ├╝berlege ich gerade, Yasemin,

00:36:38.680 –> 00:36:43.440

welche Quelle ich nennen darf, aber ich glaube, Dreisatz ist okay und Skobel ist ein anerkannter

00:36:43.440 –> 00:36:56.240

Philosoph. Eine KI hat keine Moral. Und sie hat noch keine Augen und sie hat noch keine Moral.

00:36:56.240 –> 00:36:59.840

Das ist ja dieses Trolley-Experiment, was man da irgendwie machen kann.

00:36:59.840 –> 00:37:04.360

Dass man sich so ├╝berlegt, was, was, oder dieses Bahnexperiment, dass man sich so

00:37:04.360 –> 00:37:09.960

├╝berlegt, was, was kann ich denn? Nicht, was die KI nicht kann, wo kann ich nicht

00:37:09.960 –> 00:37:14.280

ersetzt werden, sondern auch, wo kann sie mich unterst├╝tzen? Und so m├Âchte ich das

00:37:14.280 –> 00:37:22.560

eigentlich denken. Und ja, die Moral ist, ist, ist in ihr nicht angelegt. Und da kann

00:37:22.560 –> 00:37:30.840

man ihr auch nicht b├Âse sein. Es ist nichts, was man ihr negativ zuschreiben kann. Du hast

00:37:30.840 –> 00:37:39.000

keine Moral. Nein, aber das ist etwas, was wir Menschen durchaus haben k├Ânnen. Und ja,

00:37:39.000 –> 00:37:43.520

auch die emotionale Intelligenz. Ich wei├č jetzt gar nicht, ob das nur in Pflegerberufen so ist,

00:37:43.520 –> 00:37:48.240

sondern auch in sozialen Berufen. Emotionale Intelligenz brauchen ja auch Verk├Ąufer. Wo

00:37:48.240 –> 00:37:54.400

Wo setze ich denn da an? Und ich glaube, das sind Punkte, die sehr positiv sind, wo ich sagen kann,

00:37:54.400 –> 00:38:01.000

als Unterst├╝tzung. Und ja, wir haben das schon, aber das ist ja auch ein Beschwerde der Hotlines.

00:38:01.000 –> 00:38:07.360

Wir reden so oft schon mit KIs, gerade wenn wir so einen Assistenten haben,

00:38:07.360 –> 00:38:12.360

also wenn wir jetzt irgendwie hier so eine Chatfunktion haben.

00:38:13.000 –> 00:38:18.000

Und hier, glaube ich, ist der Mensch zus├Ątzlich.

00:38:18.000 –> 00:38:23.720

Also die KI sollte zus├Ątzlich sein und nicht wir sollten der Zusatz sein.

00:38:23.720 –> 00:38:26.480

Und ja, Unternehmer ├╝berlegen so. Das stimmt.

00:38:26.480 –> 00:38:31.560

Ich hoffe, dass sie auch g├╝nstig denken.

00:38:31.560 –> 00:38:35.040

Was ist g├╝nstig? Was ist die Priorit├Ąt?

00:38:35.040 –> 00:38:39.000

Und ja, wie schon gesagt, ich versuche mir meine Arbeitswelt

00:38:39.000 –> 00:38:43.880

dadurch erleichtern zu lassen und m├Âchte da Menschen auch zuraten.

00:38:43.880 –> 00:38:48.560

Ich denke aber, dass es Bereiche gibt, wenn wir jetzt bei der Moral ansetzen, zum Beispiel

00:38:48.560 –> 00:38:53.400

Snapchat hat jetzt eine KI, die Kinder nutzen k├Ânnen.

00:38:53.400 –> 00:39:01.160

Und ja, da war ich ganz irritiert, wenn die KI dann sagt, schick mir ein Foto oder erz├Ąhl

00:39:01.160 –> 00:39:02.160

es nicht deinen Eltern.

00:39:02.160 –> 00:39:07.320

Das k├Ânnen wir der KI gar nicht vorwerfen, aber wir k├Ânnten den Machern vorwerfen.

00:39:07.320 –> 00:39:12.840

Warum benutzen Sie jetzt Kinder als Versuchsobjekt f├╝r diese KI?

00:39:12.840 –> 00:39:17.800

Und dann kann man nat├╝rlich sagen, die Gesetzeslage hat hier eine L├╝cke geboten.

00:39:17.800 –> 00:39:23.640

Aber ja, da ich bin jetzt nicht der Ethikrat der Welt,

00:39:23.640 –> 00:39:27.280

aber ja, das m├Âchte ich einfach nur zu bedenken geben.

00:39:27.280 –> 00:39:30.400

Aber ich finde es interessant, toll und m├Âchte mich unterst├╝tzen lassen.

00:39:30.400 –> 00:39:32.480

Danke f├╝rs Zuh├Âren.

00:39:32.480 –> 00:39:33.720

Ja, vielen, vielen lieben Dank.

00:39:33.800 –> 00:39:40.200

Und um an zwei Punkten jetzt nochmal anzudocken, um das aufzugreifen, was du gesagt hast, und

00:39:40.200 –> 00:39:42.000

dann zu Sabine r├╝ber zu switchen.

00:39:42.000 –> 00:39:50.080

Einmal, ich gebe mal den Impuls rein, doch, die KI hat eine Moral, ganz provokant, ganz

00:39:50.080 –> 00:39:56.080

bewusst an der Stelle formuliert, n├Ąmlich die Moral, die wir ihr als Mensch zuordnen.

00:39:56.080 –> 00:39:59.520

Das hei├čt, es ist ja letztendlich ein programmiertes System.

00:39:59.520 –> 00:40:05.040

Und je nachdem, was wir definieren, was Moral ist und das Eingeben in die Maschine, wird

00:40:05.040 –> 00:40:06.880

sie danach auch agieren.

00:40:06.880 –> 00:40:08.840

Dementsprechend hat sie eine Moral.

00:40:08.840 –> 00:40:14.600

Nicht eine selbst erarbeitete vielleicht an der Stelle, aber eine, die wir ihr programmieren.

00:40:14.600 –> 00:40:20.000

Und da m├Âchte ich gerne gleich nochmal ankn├╝pfen, n├Ąmlich an den vielen Sorgen, die hier diskutiert

00:40:20.000 –> 00:40:21.000

werden.

00:40:21.000 –> 00:40:26.840

Ganz h├Ąufig, was ich h├Âre, ist sowas wie, keine Ahnung, das verselbstst├Ąndigt sich

00:40:26.840 –> 00:40:35.280

es gibt Diskriminierung oder Sonstiges auch hier noch mal zu sensibilisieren. Das Problem und

00:40:35.280 –> 00:40:43.000

zugleich auch die L├Âsung ist der Mensch und nicht der Roboter. Das hei├čt, wenn, also worauf greift

00:40:43.000 –> 00:40:49.680

dann die KI zur├╝ck? Auf die Daten, die wir hier einspeisen. Wenn in den Daten, die wir einspeisen,

00:40:49.680 –> 00:40:56.200

eben nur m├Ąnnliche Formen verwendet werden, wenn sowieso heute schon Diskriminierung in

00:40:56.200 –> 00:40:59.200

in unseren Texten stattfindet, in den Ausschreibungen,

00:40:59.200 –> 00:41:02.280

in den Auswahlprozessen, die wir machen und, und, und.

00:41:02.280 –> 00:41:04.320

Da sind wir bei dem Problem Mensch.

00:41:04.320 –> 00:41:08.240

Unconscious Bias, ├╝berall ist das dokumentiert.

00:41:08.240 –> 00:41:11.280

Das sind die Informationen, die hier eingespeist werden.

00:41:11.280 –> 00:41:13.240

Dann darf ich mich nicht wundern,

00:41:13.240 –> 00:41:17.160

wenn auch die KI hier diskriminiert,

00:41:17.160 –> 00:41:19.640

Unconscious Bias aufgreift usw.

00:41:19.640 –> 00:41:22.600

Und die L├Âsung, das m├Âchte ich auch noch mal unterstreichen,

00:41:22.600 –> 00:41:24.600

ist gleichwohl auch wieder der Mensch.

00:41:24.680 –> 00:41:30.800

Denn wenn wir es schaffen, hier andere Dinge zu programmieren, uns darauf zu sensibilisieren,

00:41:30.800 –> 00:41:36.120

die Gefahren zu sehen, mit was auch immer, ob das Regulierungen sind, ob das ein Ethikrat

00:41:36.120 –> 00:41:40.400

ist, der dar├╝ber diskutiert oder was auch immer, dann k├Ânnen wir es auch schaffen,

00:41:40.400 –> 00:41:46.640

eben auch die Moral entsprechend so einzubauen, dass es nicht Gefahren, sondern Potenziale

00:41:46.640 –> 00:41:47.640

darstellt.

00:41:47.640 –> 00:41:48.640

Das ist mal das eine.

00:41:48.640 –> 00:41:51.880

Und das andere fand ich auch nochmal super, dass du das mit den Chatbots nochmal mit als

00:41:51.880 –> 00:41:52.880

Beispiel gebracht hast.

00:41:52.880 –> 00:41:57.200

Das hei├čt, das zeigt ja auch, wir nutzen das eben heute schon an ganz vielen Stellen,

00:41:57.200 –> 00:42:02.320

ohne dass es uns vielleicht bewusst ist, ob das jetzt Bankautomaten im Sinne der Automatisierung

00:42:02.320 –> 00:42:09.560

sind, die wir einsetzen, oder ob das Online-Banking ist im Sinne der Automatisierung, die wir

00:42:09.560 –> 00:42:10.720

nutzen und einsetzen.

00:42:10.720 –> 00:42:18.240

Das sind jetzt keine klassischen KI-gest├╝tzten Tools, aber allein schon die Automatisierung,

00:42:18.240 –> 00:42:23.680

die es ja in den letzten Jahren gab, die zeigt ja, das ist ja auch das, was viele Menschen

00:42:23.680 –> 00:42:24.680

eben wollen.

00:42:24.680 –> 00:42:29.040

Es setzt sich ja auch deswegen durch, weil, nur mal als Beispiel, Menschen eben nicht

00:42:29.040 –> 00:42:36.720

bereit sind, daf├╝r, dass Menschen irgendwo sitzen am Schalter, ja, Bankgeb├╝hren zu zahlen.

00:42:36.720 –> 00:42:41.400

Jeder von uns guckt, wenn es darum geht, wo bekomme ich eben auch ein Girokonto, das

00:42:41.400 –> 00:42:42.400

kostenfrei ist.

00:42:42.400 –> 00:42:47.280

Und gleichzeitig sagen wir dann aber, nee, damit sind wir irgendwie nicht einverstanden,

00:42:47.280 –> 00:42:52.440

Problemen gesellschaftlich gesehen, aber weil der Nutzen eben auf dem Markt gegeben ist und weil das

00:42:52.440 –> 00:42:58.040

f├╝r uns bequem ist, Onlinebanking zu nutzen, entscheiden wir uns am Ende dann doch f├╝r das

00:42:58.040 –> 00:43:02.560

Onlinebanking. Und so ├Ąhnlich ist es eben mit diesen ganzen KI-gest├╝tzten Tools, dass es nicht

00:43:02.560 –> 00:43:07.320

daran vorbeif├╝hrt, dass sich das eben in der Marktdurchdringung jetzt an der Stelle sozusagen

00:43:07.320 –> 00:43:14.360

auch durchsetzen wird. Zu dem Aspekt ganz kurz nochmal „billig“ in Anf├╝hrungsstrichen oder

00:43:14.360 –> 00:43:20.360

schlechte Qualit├Ąt. Auch wenn es vielleicht von der Denke her Sinn macht, zu sagen, naja,

00:43:20.360 –> 00:43:24.720

wenn die Ressource Mensch g├╝nstiger wird, dann kann ich ja als Unternehmen auch ├╝berlegen,

00:43:24.720 –> 00:43:30.400

ob ich jetzt Ressource Mensch lieber der KI bevorzuge. Da entgegne ich jetzt nochmal als

00:43:30.400 –> 00:43:38.440

Impuls zu sagen, naja, aber wer hat dann weniger Fehlerpotenzial? Also wenn wir uns angucken,

00:43:38.440 –> 00:43:44.120

mit welchen Daten und mit welcher Hochgeschwindigkeit hier Ergebnisse produziert werden.

00:43:44.120 –> 00:43:49.280

Ich rede jetzt nicht von den Anteilen, die nur der Mensch bew├Ąltigen kann und die KI

00:43:49.280 –> 00:43:52.560

nicht erf├╝llen kann, sondern von den Dingen, die ich der KI abgeben kann.

00:43:52.560 –> 00:43:58.720

Dann im Sinne des Ergebnisses, was hier rauskommt in einer bestimmten Geschwindigkeit.

00:43:58.720 –> 00:44:02.720

Und das wird ein Mensch nicht erf├╝llen k├Ânnen, Punkt, aus meiner Sicht.

00:44:02.720 –> 00:44:05.760

Also wenn wir jetzt mal als Beispiel die Medizin nehmen.

00:44:05.760 –> 00:44:10.960

Wenn ich eben einen Mediziner habe, der eine Diagnose stellen soll, dann kann er eben nur

00:44:10.960 –> 00:44:14.720

auf seinen Erfahrungsschatz, nur in Anf├╝hrungsstrichen auf seinen Erfahrungsschatz und auf sein Wissen

00:44:14.720 –> 00:44:21.440

zur├╝ckgreifen, w├Ąhrend die KI hier auf das Wissen zur├╝ckgreift und auch auf Erfahrungsschatz

00:44:21.440 –> 00:44:27.360

zur├╝ckgreift von allen m├Âglichen Medizinern in dem Bereich und Dinge erkennen kann, die

00:44:27.360 –> 00:44:32.120

ein sehr guter Mediziner auch heute schon nicht mehr identifizieren kann und schon gar

00:44:32.120 –> 00:44:33.760

nicht in dieser Hochgeschwindigkeit.

00:44:33.760 –> 00:44:37.900

Also deswegen m├╝sste man hier wirklich auch nochmal in Richtung Fehlerpotenziale und

00:44:37.900 –> 00:44:41.980

sowas denken und nicht nur nach was ist g├╝nstiger in Anf├╝hrungsstrichen.

00:44:41.980 –> 00:44:46.540

Gleichwohl kommt dann aber nat├╝rlich die Problematik auf, dass ich ├╝berlegen muss,

00:44:46.540 –> 00:44:47.540

geht es immer nur um g├╝nstig?

00:44:47.540 –> 00:44:51.940

Was macht das marktwirtschaftlich, volkswirtschaftlich und so weiter?

00:44:51.940 –> 00:44:53.860

Das ist ja der n├Ąchste Aspekt.

00:44:53.860 –> 00:44:58.740

Denn wenn theoretisch jetzt mal, wenn man es spinnen w├╝rde und nicht davon ausgehen

00:44:58.740 –> 00:45:02.580

w├╝rde, dass sich neue Aufgaben ergeben, sondern dass wirklich hier Massenarbeitslosigkeit

00:45:02.580 –> 00:45:07.580

entstehen w├╝rde, nur mal angenommen, wenn wir diese Option mal durchspielen, dann w├╝rde das ja bedeuten,

00:45:07.580 –> 00:45:12.480

dass die Menschen keine Kaufkraft mehr haben. Und das wiederum hat ja dann auch in der Kettenreaktion

00:45:12.480 –> 00:45:17.480

betrachtet Auswirkungen auf die Unternehmungen. Das hei├čt, wir kommen hier in einen Kreislauf rein,

00:45:17.480 –> 00:45:23.280

den wir auch nicht als toll ansehen d├╝rfen, sondern hier macht es wirklich Sinn, auch in Kettenreaktionen

00:45:23.280 –> 00:45:28.280

zu denken und auch zu ├╝berlegen, was sind denn L├Âsungen. Und L├Âsungen k├Ânnten, nur mal als Beispiel,

00:45:28.280 –> 00:45:33.080

k├Ânnte man ja auch ├╝berlegen, wenn Unternehmen in Zukunft weniger Mitarbeiter besch├Ąftigen,

00:45:33.080 –> 00:45:38.320

vielleicht gibt es dann Steuern f├╝r die Unternehmen, die KI einsetzen. Das hei├čt,

00:45:38.320 –> 00:45:42.160

irgendwoher muss ja auch dieses Geld wieder beschafft werden, um dieses System auch wieder

00:45:42.160 –> 00:45:46.440

auf den Beinen zu halten. Also hier gibt es viele, viele Denkm├Âglichkeiten und viele Richtungen,

00:45:46.440 –> 00:45:51.680

die wir laufen k├Ânnen. Und deswegen ist es ja auch ein Raum zum Gedanken jonglieren,

00:45:51.680 –> 00:45:55.880

sozusagen. Das hei├čt, nichts ist ausgeschlossen und verschiedene Optionen einfach mal aufzumachen

00:45:55.880 –> 00:45:59.160

machen und durchzudenken, ist denke ich das Beste, was wir in diesem Zusammenhang

00:45:59.160 –> 00:46:03.360

tun k├Ânnen, um einfach uns mal zu sensibilisieren, in welche Richtung kann

00:46:03.360 –> 00:46:06.920

das Ganze denn auch laufen. Sabine, einen wundersch├Ânen guten Morgen, vielen Dank

00:46:06.920 –> 00:46:14.360

f├╝r deine Geduld. Wow, guten Morgen zusammen. Also ich wei├č nicht, ob ich alle Punkte noch zusammenkriege.

00:46:14.360 –> 00:46:19.800

Zum ersten Mal, ich geh├Âre sicherlich zu den Zauberern, ich oute mich hiermit. Zum

00:46:19.800 –> 00:46:25.640

anderen, das Messen mit dem Geldautomaten, da wollte ich ein kleines Beispiel geben.

00:46:25.640 –> 00:46:27.880

Ich arbeite mit der Volksbank zusammen.

00:46:27.880 –> 00:46:29.520

Die sind schon drei Schritte weiter.

00:46:29.520 –> 00:46:34.080

Die sind im l├Ąndlichen Bereich und haben nicht nur einen Geldautomaten,

00:46:34.080 –> 00:46:35.800

sondern wenn man da reinkommt…

00:46:35.800 –> 00:46:37.680

Ich habe den Namen leider vergessen.

00:46:37.680 –> 00:46:39.560

Da kommt hier der Bildschirm auf.

00:46:39.560 –> 00:46:43.920

Und dann entscheidet eine junge Dame und die unterh├Ąlt sich.

00:46:43.920 –> 00:46:47.880

Und das haben sie gepr├╝ft und sind damit sehr gut angekommen.

00:46:47.880 –> 00:46:54.120

Also das 0815-Schaltergesch├Ąft wird inzwischen von der Dame erledigt.

00:46:54.280 –> 00:46:58.120

Und die geht dann weiter in ein Callcenter.

00:46:58.120 –> 00:47:01.080

In dem Moment, wo es bei ihr scheitert,

00:47:01.080 –> 00:47:04.280

sagt sie dann einfach, ich gehe dann gerade mal an die Kollegin weiter.

00:47:04.280 –> 00:47:07.640

Also so weit entfernt sind wir da ├╝berall nicht mehr.

00:47:07.640 –> 00:47:10.920

Was ich noch zu bedenken gebe, ist einfach,

00:47:10.920 –> 00:47:13.400

ich versuche ungef├Ąhr seit vier Wochen,

00:47:13.400 –> 00:47:15.720

mich bei einer Bausparkasse pers├Ânlich,

00:47:15.720 –> 00:47:19.240

also ich bin schon legitimiert, mein Mann f├╝r unseren minderj├Ąhrigen Sohn,

00:47:19.240 –> 00:47:21.640

ja, du kannst Postagent machen.

00:47:21.640 –> 00:47:26.360

Bei der Post, in Mannheim haben leider beide Postoffices zugemacht.

00:47:26.360 –> 00:47:28.360

DHL ├╝bernimmt es nicht mehr.

00:47:28.360 –> 00:47:32.320

Ich habe inzwischen mit allen, die ich kenne, gesprochen,

00:47:32.320 –> 00:47:35.120

wir schicken Ihnen neuen Link f├╝r Videoerdenkung.

00:47:35.120 –> 00:47:37.120

Funktioniert nicht.

00:47:37.120 –> 00:47:40.280

Was ich damit einfach nur sagen will, der Linksachternent,

00:47:40.280 –> 00:47:42.640

n├Ąmlich, Sie sind bereits legitimiert.

00:47:42.640 –> 00:47:46.400

Das hei├čt, in dem Moment, wo ich das Ganze einsetze,

00:47:46.400 –> 00:47:49.840

muss ich nat├╝rlich hinter den Kulissen Sorge daf├╝r tragen,

00:47:49.840 –> 00:47:54.820

dass es auch funktioniert. Aber das hat ja nichts mit KI zu tun, das ist ja mit der

00:47:54.820 –> 00:47:58.420

gesamten Technik. Also nicht den zweiten Schritt, sondern den ersten Schritt machen.

00:47:58.420 –> 00:48:06.260

Was ich noch sagen wollte, was wollte ich noch sagen? Ach ja, Chat GPT, nein Quatsch,

00:48:06.260 –> 00:48:15.340

wie hei├čt das jetzt, was die Layla vorhin sagte, dieses Tool, was jetzt auch, was meine

00:48:15.340 –> 00:48:20.920

Kinder auch verwenden, nur mit den

00:48:20.920 –> 00:48:25.080

Kindern verwende. Und da bin ich ein

00:48:25.080 –> 00:48:26.760

bisschen Laylas Meinung. Nat├╝rlich ist

00:48:26.760 –> 00:48:28.240

da irgendein Mensch dahinter, der das

00:48:28.240 –> 00:48:30.760

programmiert und sagt, schick mir das

00:48:30.760 –> 00:48:33.200

Foto hin und schick mir das. Aber das ist

00:48:33.200 –> 00:48:37.320

ja ein bisschen die Gefahr. Ich gebe hier

00:48:37.320 –> 00:48:39.240

Yasemin v├Âllig recht, der VKI kann

00:48:39.240 –> 00:48:42.320

nichts, was wir ihr nicht weitergeben und

00:48:39.240 –> 00:48:47.400

was wir nicht implementieren. Aber das Darknet ist ja dann in dem Moment auch aktiv. Und wer

00:48:47.400 –> 00:48:52.560

sorgt daf├╝r, dass das Richtige an die weitergegeben wird und nicht das Falsche? Das w├╝rde mich schon

00:48:52.560 –> 00:48:57.040

noch mal interessieren. Ansonsten hatte ich noch einen vierten Punkt, den habe ich aber leider

00:48:57.040 –> 00:49:02.800

vergessen. Vielen Dank. Kommt bestimmt wieder. Ja, vielen, vielen lieben Dank. Und damit m├Âchte

00:49:02.800 –> 00:49:06.480

ich gerne noch mal die Gelegenheit geben, wirklich auch Querbez├╝ge herzustellen. Mark,

00:49:06.480 –> 00:49:08.480

Du hattest dich gemeldet und dann gerne J├╝rgen.

00:49:08.480 –> 00:49:11.960

Ja, da m├Âchte ich sofort darauf eingehen, liebe Sabine.

00:49:11.960 –> 00:49:15.600

Ganz aktuell habe ich gelesen, genau aus diesem Grund, wer kontrolliert das?

00:49:15.600 –> 00:49:20.120

Hat Italien, GPT zurzeit gesperrt, weil sie gesagt hat, es ist ├╝berhaupt nicht

00:49:20.120 –> 00:49:23.880

ersichtlich, was mit diesen Datenanfragen gemacht werden,

00:49:23.880 –> 00:49:26.240

wie die Daten verarbeitet werden, wo die landen?

00:49:26.240 –> 00:49:28.640

Da habe ich dann einen kurzen Moment dr├╝ber nachgedacht und dachte, okay,

00:49:28.640 –> 00:49:31.160

die andere gro├če Suchmaschine, die wir t├Ąglich benutzen,

00:49:31.160 –> 00:49:32.280

was sammelt die denn f├╝r Daten?

00:49:32.280 –> 00:49:34.440

Also es wird nur eine Frage der Zeit sein, bis das auch

00:49:35.280 –> 00:49:39.960

wieder sich erledigt hat. Dann m├Âchte ich noch sagen, ergebnisorientiert. Wir haben

00:49:39.960 –> 00:49:43.120

├╝ber Menschen gesprochen und da sollte uns auch klar sein, wenn wir ein

00:49:43.120 –> 00:49:45.800

Unternehmen haben, dass ergebnisorientiert arbeiten. Bei einem

00:49:45.800 –> 00:49:50.160

Bewerbungsgespr├Ąch z├Ąhlen 60 bis 80 Prozent Sympathie. Das hei├čt nicht mal

00:49:50.160 –> 00:49:54.280

die Zeugnisse, sondern die Sympathie. Und in der Diskussion, das ist jetzt ohne

00:49:54.280 –> 00:49:57.360

Bewertung, ist es ja eigentlich ein Wahnsinn, dass Chefs und Unternehmen

00:49:57.360 –> 00:50:02.360

Menschen nach Sympathie einstellen und nach ihren F├Ąhigkeiten. Und dann das

00:50:02.360 –> 00:50:05.600

zweite ist die Verantwortung, den Begriff haben wir noch nicht gefallen, genau, weil wir

00:50:05.600 –> 00:50:10.400

diese Dinge jetzt alle besprechen, was da auf uns zukommt, muss es da eine

00:50:10.400 –> 00:50:14.120

Verantwortung geben, wie wir mit Daten umgehen und und und, wer kontrolliert die

00:50:14.120 –> 00:50:18.240

Daten, was hat das f├╝r Auswirkungen und zum Thema g├╝nstig als Unternehmer muss

00:50:18.240 –> 00:50:21.160

ich noch sagen, ich nenne jetzt die Automobilmarke nicht, es gibt nat├╝rlich

00:50:21.160 –> 00:50:24.760

auch Unternehmer, die ganz ganz andere Schritte machen, die einfach sagen, wollen

00:50:24.760 –> 00:50:28.840

wir ├╝berhaupt noch den g├╝nstigen Markt haben? Nein, der Markt der Superreichen ist

00:50:28.840 –> 00:50:32.040

viel interessanter und im Automobilbereich gibt es also speziell eine

00:50:32.040 –> 00:50:36.360

Automarke, die gesagt hat, wir verkaufen f├╝r uns sind Autos interessant ab 130,

00:50:36.360 –> 00:50:42.120

150.000 Euro und es gibt einfach in Saudi-Arabien und Dubai Leute, die kaufen

00:50:42.120 –> 00:50:45.440

sich da gleich zehn davon in verschiedenen Farben. Damit verdienen die

00:50:45.440 –> 00:50:49.240

Geld. Das hei├čt diesen Massen- und Billigmarkt, den verlassen gerade einige

00:50:49.240 –> 00:50:52.280

uns bekannte Firmen, weil die sagen, mit diesem Massenmarkt verdienen wir gar kein

00:50:52.280 –> 00:50:56.040

Geld mehr. Wir konzentrieren uns auf den Premiummarkt. Das hat dann nat├╝rlich auch

00:50:56.040 –> 00:50:59.800

wieder zum Vorteil, wenn man einen Premium-Markt hat, muss nat├╝rlich die

00:50:59.800 –> 00:51:03.480

Qualit├Ąt, dann sind wir wieder bei der Qualit├Ąt, super top sein, sonst kriegt

00:51:03.480 –> 00:51:08.220

man nat├╝rlich nicht ein Auto f├╝r 120 oder noch mehr 150.000 Euro verkauft. Und

00:51:08.220 –> 00:51:12.680

das ist total spannend, wie bei jedem Thema, egal wie wir hingucken, jeder von

00:51:12.680 –> 00:51:16.840

uns findet die Antworten, aber ich bin der Meinung, was der J├╝rgen auch gesagt

00:51:16.840 –> 00:51:20.040

hat, nicht mit Panik mache, sondern einfach mit einem ganz objektiven

00:51:20.040 –> 00:51:24.640

Auseinandersetzung, mit der Faktenpr├╝fung und wenn man sich damit

00:51:24.640 –> 00:51:29.200

wirklich besch├Ąftigt mit dieser KI, ist die Mehrheit der Untersuchungen, die man

00:51:29.200 –> 00:51:32.660

gerade finden kann im Netz, dass man davon ausgeht, dass es eher zu einer

00:51:32.660 –> 00:51:37.500

Umstrukturierung kommen kann, statt zu einer Massenentlastung. Obgleich es

00:51:37.500 –> 00:51:41.320

nat├╝rlich auch sein kann, dass es nat├╝rlich bestimmte, nat├╝rlich fallen

00:51:41.320 –> 00:51:44.160

Arbeitspl├Ątze auch weg. Eine Umstrukturierung kann nat├╝rlich, das war

00:51:44.160 –> 00:51:48.140

der Punkt von Yasemin, auch bedeuten, dass es f├╝r bestimmte Menschen so in einer

00:51:48.140 –> 00:51:51.520

Firma Jobs nicht mehr gibt, die sie bisher gemacht haben, dass sie in andere

00:51:51.520 –> 00:51:55.000

Jobs gehen und dass dann wieder was passiert, was wir auch schon als Thema

00:51:55.000 –> 00:51:58.100

hatten, dass man dann f├╝r diese anderen Jobs dann eben vielleicht weniger

00:51:58.100 –> 00:52:01.240

entlohnt wird, wenn man nicht die Bildung hat. Auch das Thema hatten wir schon mal.

00:52:01.240 –> 00:52:06.040

Bildung wird ein ganz wichtiges Thema, denn wenn man in KI, in der KI

00:52:06.040 –> 00:52:10.040

besch├Ąftigt sein m├Âchte, also sei es f├╝r Programmierung oder Herstellung, dann

00:52:10.040 –> 00:52:12.960

braucht man eine bestimmte Bildung. Das wird nicht gehen, wenn man nicht lesen

00:52:12.960 –> 00:52:16.960

kann. Und da sieht man wieder, da sind wir wieder beim Thema Komplexit├Ąt und

00:52:16.960 –> 00:52:19.880

wahrscheinlich reicht nicht ein Raum zu dem Thema, sondern wir k├Ânnen bestimmt

00:52:19.880 –> 00:52:22.880

locker f├╝nf bis zehnmal so einen Raum machen zum Thema KI.

00:52:22.880 –> 00:52:29.280

Ja, mit Sicherheit. Und bevor ich jetzt noch mal zu J├╝rgen komme, dann Layla und dann Sabine,

00:52:29.280 –> 00:52:33.600

m├Âchte ich gerne noch mal ganz kurz diesen Bildungsbegriff aufgreifen, denn das war ja

00:52:33.600 –> 00:52:40.280

auch mitunter eines der Themen beim Autoren-Fr├╝hst├╝ck mit Dr. Franz H├╝tter an der Stelle. ├ťbrigens

00:52:40.280 –> 00:52:45.560

sehr lohnenswert wirklich auch reinzuh├Âren, denn anzunehmen, dass hier jetzt keine Jobs

00:52:45.560 –> 00:52:49.560

gestrichen werden, w├Ąre einfach eine Illusion an der Stelle.

00:52:49.560 –> 00:52:51.560

Das hat eine gewisse Naivit├Ąt.

00:52:51.560 –> 00:52:54.560

Also hier werden definitiv Jobs gestrichen.

00:52:54.560 –> 00:52:56.560

Punkt. Das wird kommen.

00:52:56.560 –> 00:52:58.560

Und das ist auch schon am Laufen.

00:52:58.560 –> 00:53:01.560

Also verschiedene Unternehmen auch heute schon.

00:53:01.560 –> 00:53:04.560

Also Namen m├Âchte ich jetzt mal weglassen,

00:53:04.560 –> 00:53:06.560

weil ich nicht genau wei├č, ob es schon kommuniziert ist.

00:53:06.560 –> 00:53:11.560

Aber ein gro├čes Unternehmen ist gerade dabei,

00:53:11.560 –> 00:53:13.560

10.000 Stellen zu streichen.

00:53:13.560 –> 00:53:16.280

unter anderem wegen KI-Nutzung und so weiter.

00:53:16.280 –> 00:53:19.920

Und viele andere Unternehmen, auch im Mittelstand ├╝brigens,

00:53:19.920 –> 00:53:23.320

also auch kleine Unternehmen und mittelst├Ąndische Unternehmen,

00:53:23.320 –> 00:53:25.240

die sich damit schon befasst haben,

00:53:25.240 –> 00:53:29.760

stellen weniger ein oder streichen Stellen.

00:53:29.760 –> 00:53:32.040

D.h. das ist schon am Rollen.

00:53:32.040 –> 00:53:34.120

Und viele sind noch gar nicht aufgewacht.

00:53:34.120 –> 00:53:36.240

D.h. hier wird noch ganz, ganz viel passieren.

00:53:36.240 –> 00:53:38.520

Aber ich m├Âchte das gar nicht negativ darstellen,

00:53:38.520 –> 00:53:40.920

sondern, und da sind wir bei diesem Bildungsaspekt,

00:53:41.000 –> 00:53:45.520

Es wird deutlich, dass wir bestimmte ├╝bergeordnete Skills brauchen,

00:53:45.520 –> 00:53:48.640

├╝ber dieses reine Wissen hinaus, sozusagen,

00:53:48.640 –> 00:53:50.920

was bisher uns ja vielleicht an der Stelle

00:53:50.920 –> 00:53:52.600

auch ein St├╝ck weit mit ausgemacht hat,

00:53:52.600 –> 00:53:56.760

unabh├Ąngig von auch diesen emotionalen Kompetenzen und so weiter.

00:53:56.760 –> 00:53:58.440

Und da kann man ja auch mal drauf schauen.

00:53:58.440 –> 00:54:00.680

Also es wird ja auch im therapeutischen Bereich schon…

00:54:00.680 –> 00:54:04.680

Es ist Wahnsinn, was hier bahnbrechend mit der KI entwickelt wird,

00:54:04.680 –> 00:54:07.920

dass eben auch therapeutische Settings jetzt kreiert werden,

00:54:07.920 –> 00:54:10.720

die durch KI durchgef├╝hrt werden.

00:54:10.800 –> 00:54:12.960

Weil es zum Beispiel nicht genug Therapeuten gibt.

00:54:12.960 –> 00:54:17.400

Weil es… Oder eine Telefonseelsorge oder so was, KI gest├╝tzt,

00:54:17.400 –> 00:54:19.920

das ist der Hammer, was hier alles am Kommen ist gerade.

00:54:19.920 –> 00:54:24.000

Und hier nicht anzunehmen, so nach dem Motto, das funktioniert nicht.

00:54:24.000 –> 00:54:25.280

Also wenn ich die Wahl habe,

00:54:25.280 –> 00:54:28.600

zwischen ich muss sechs Monate oder ein Jahr auf einen Therapeuten warten,

00:54:28.600 –> 00:54:32.400

oder ich nehme die KI als Therapiem├Âglichkeit,

00:54:32.400 –> 00:54:35.800

ja, was ist denn f├╝r den, der vielleicht suizidgef├Ąhrdet ist, besser?

00:54:35.800 –> 00:54:38.920

Also auch mal aus dieser Perspektive zu sehen,

00:54:39.000 –> 00:54:42.080

Hier sind ganz viele Chancen, die wir aufgreifen k├Ânnen,

00:54:42.080 –> 00:54:45.680

sowohl als Unternehmen als auch individuell betrachtet

00:54:45.680 –> 00:54:47.920

und auch gesellschaftlich betrachtet.

00:54:47.920 –> 00:54:49.960

Denn das ist ja auch eine politische Diskussion,

00:54:49.960 –> 00:54:53.520

die wir hier gerade f├╝hren, auch mit Fachkr├Ąften aus dem Ausland usw.,

00:54:53.520 –> 00:54:56.200

was ja auch Vor- und Nachteile mit sich bringt.

00:54:56.200 –> 00:54:57.880

Und gleichwohl eben zu sehen,

00:54:57.880 –> 00:55:02.040

welche Rolle jetzt pl├Âtzlich auch der Bildung wieder mit zukommt.

00:55:02.040 –> 00:55:05.520

N├Ąmlich, wir sind bei dem Aspekt der Schl├╝sselqualifikation,

00:55:05.520 –> 00:55:07.720

der ├╝bergeordneten Qualifikation.

00:55:07.800 –> 00:55:12.360

Hier muss ganz, ganz schnell und ganz intensiv auch begleitet werden.

00:55:12.360 –> 00:55:17.560

Das hei├čt, die Anforderungen, eben auch mit Komplexit├Ąt umzugehen und und und

00:55:17.560 –> 00:55:19.040

werden wichtiger denn je.

00:55:19.040 –> 00:55:22.800

Sie waren jetzt auch schon wichtig, aber gerade jetzt auch mit Ungewissheiten,

00:55:22.800 –> 00:55:24.760

Spannungsfeldern, Dilemmata und so weiter.

00:55:24.760 –> 00:55:27.360

Das wird ganz, ganz wichtig.

00:55:27.360 –> 00:55:31.600

Und da eben nur Wissensvermittlung zu betreiben in vielen Institutionen hilft

00:55:31.600 –> 00:55:33.600

uns ├╝berhaupt nicht weiter an dieser Stelle.

00:55:33.840 –> 00:55:39.720

Der reine Qualifizierungsgedanke ist einfach ad acta zu legen.

00:55:39.720 –> 00:55:44.240

Und hier neu zu denken, umzudenken und vor allem auch ins Handeln zu kommen,

00:55:44.240 –> 00:55:48.520

finde ich, ein unwahrscheinlich wichtiger Aspekt, um eben Selbstbestimmung,

00:55:48.520 –> 00:55:56.640

Selbstorganisation und Selbstwirksamkeit auch langfristig herzustellen oder wiederherzustellen.

00:55:56.640 –> 00:55:57.640

J├╝rgen.

00:55:57.640 –> 00:56:04.000

Ihr k├Ânnt mich jetzt leider nicht grinsen sehen, aber es ist Wasser auf die M├╝hlen,

00:56:04.000 –> 00:56:11.240

insbesondere nat├╝rlich immer die Qualit├Ąt deiner Zusammenf├╝hrung, aber heute die L├Ąnge

00:56:11.240 –> 00:56:19.240

der Ausf├╝hrungen, wie komplex dieses Thema ist und ja, lieber Marc, ich hatte das am Anfang schon

00:56:19.240 –> 00:56:23.840

Positioniert. Dieses Thema w├Ąre wirklich eines Dachthemas wert.

00:56:23.840 –> 00:56:30.640

Und danke f├╝r deinen Input, dass im Hinblick auf, was ich angef├╝hrt

00:56:30.640 –> 00:56:34.840

habe, im Hinblick einer Maschine in die Augen schauen, Vertrauen geht

00:56:34.840 –> 00:56:39.640

verloren. Das sehe ich genauso spiegelbildlich f├╝r die

00:56:39.640 –> 00:56:45.740

F├╝hrungsqualit├Ąt beziehungsweise f├╝r das Thema Verantwortung. Eine

00:56:45.740 –> 00:56:51.360

Maschine Verantwortung ├╝bernehmen f├╝r die Richtigkeit, f├╝r die Wahrheit, f├╝r die

00:56:51.360 –> 00:56:58.420

Lernf├Ąhigkeit und da bin ich jetzt beim n├Ąchsten Thema, was glaube ich auch einer

00:56:58.420 –> 00:57:04.140

Komplexit├Ątshygiene sehr gut t├Ąte, wenn man sich klar werden w├╝rde, was ist

00:57:04.140 –> 00:57:08.980

eigentlich der Unterschied zwischen Automatisierung, zwischen Maschinen

00:57:08.980 –> 00:57:15.500

lernen und k├╝nstlicher Intelligenz. Also mit Hinblick in Endausbaustufe, Richtung

00:57:15.500 –> 00:57:19.300

Abbildung von neuronalen Netzwerken, wie es unser Gehirn hat.

00:57:19.300 –> 00:57:23.500

Also das ist auch, und ich komme immer wieder auf den Punkt,

00:57:23.500 –> 00:57:28.300

eigentlich ein viel zu komplexes Thema, um nicht daraus ein Dach zu machen.

00:57:28.300 –> 00:57:31.300

Und ganz zum Schluss noch eine launige Bemerkung,

00:57:31.300 –> 00:57:38.300

weil es wohl Widerst├Ąnde gegen den Begriff Billig gibt.

00:57:38.300 –> 00:57:47.540

In der ├ľkonomie oder in der Wirtschaft gibt es wohl eine Unterscheidung. Deswegen gibt es auch

00:57:47.540 –> 00:57:55.900

die Begriffe zwischen billig und g├╝nstig. Da gibt es eine ganz vehemente Unterschiedlichkeit. Ich

00:57:55.900 –> 00:58:01.060

m├Âchte jetzt aber die Einzelheiten nicht ersparen, aber wer das wissen will, dem lege ich das gerne

00:58:01.060 –> 00:58:08.980

Vielen Dank. Ja, super. Vielen, vielen lieben Dank. Layla. Ja, ich komme mir heute ein bisschen

00:58:08.980 –> 00:58:16.620

vor wie der Advokat Diaboli und m├Âchte mich zun├Ąchst deswegen erstmal bedanken, weil dem

00:58:16.620 –> 00:58:24.700

ist nicht so, Yasemin, f├╝r deinen Impuls. Weil der Impuls war ja, eine KI hat nicht keine Moral. Und

00:58:24.700 –> 00:58:30.620

das finde ich gut, weil Sprache ist sehr wichtig und die schafft ja auch Realit├Ąten. Nee, sie hat

00:58:30.620 –> 00:58:36.260

dem Moral des Programmierers. Und das sehen wir. Und das sind halt Diskussionen,

00:58:36.260 –> 00:58:41.620

die kommen schon beim autonomen Fahren. Und da k├Ânnt ihr gerne, also das hei├čt

00:58:41.620 –> 00:58:47.500

„The Moral Machine“, das ist von der Harvard University. Macht das mal und guckt euch

00:58:47.500 –> 00:58:50.540

das mal an. Da m├╝sst ihr Entscheidungen treffen. Und die sind sehr komplex und die

00:58:50.540 –> 00:58:56.260

fallen uns allen schwer. Was ich sagen m├Âchte, ist, ich bin sehr positiv der KKI

00:58:56.260 –> 00:59:04.460

gegen├╝ber gestimmt. Das ist so. Und trotzdem ist es so, dass ich sage, sie hat die Moral

00:59:04.460 –> 00:59:09.700

des Programmierers und hier stecken wirtschaftliche Interessen dahinter. Das ist einfach das,

00:59:09.700 –> 00:59:16.060

was mir auff├Ąllt. Und das f├Ąllt mir bei Snapchat auf, wenn Kindern gesagt wird,

00:59:16.060 –> 00:59:22.260

schick mir mal ein Foto, dann wird die Uhr gelobt. Und welche Kopfh├Ârer sind das? Oder erz├Ąhl nicht

00:59:22.260 –> 00:59:28.980

deinen Eltern, dass du mit mir gesprochen hast und eine KI denkt sich da nichts dabei oder wenig oder

00:59:28.980 –> 00:59:33.860

die wirtschaftlichen Interessen stecken dahinter, weil wir wissen nicht, wie sie programmiert ist

00:59:33.860 –> 00:59:39.540

und wer sie programmiert hat und warum das so ist. Und das soll jetzt auch kein Unken sein,

00:59:39.540 –> 00:59:46.460

wir sollen das nicht tun, sondern ja, eigentlich ist es eher eine Mahnung an den Menschen und an

00:59:46.460 –> 00:59:52.060

die wirtschaftlichen Interessen und das sehen wir auch in der Wirtschaft, weil wir haben keinen

00:59:52.060 –> 00:59:59.060

Gesamtethikrat der Welt. Wir haben keine allgemeing├╝ltige Moral. Und das ist ein Punkt,

00:59:59.060 –> 01:00:05.060

der mir halt auff├Ąllt und der ein Stolperstein sein kann. Trotzdem k├Ânnen wir uns dieser

01:00:05.060 –> 01:00:09.860

Entwicklung weder verschlie├čen, noch sollten wir das tun und sollten sie nutzen. Deswegen

01:00:09.860 –> 01:00:16.060

bedanke ich mich auch herzlich f├╝r die Impulse und die Diskussion und denke, dass es wichtig ist,

01:00:16.060 –> 01:00:20.780

wie nutzen wir es. Und ich muss jetzt gerade an meine Krankenversicherung denken, die ich

01:00:20.780 –> 01:00:25.340

angerufen habe und h├Ątte ich dann mit einem Bot telefoniert, w├Ąre das nicht so sch├Ân

01:00:25.340 –> 01:00:31.960

gewesen, weil ich einen Einzelfall hatte. Und das war aufgrund meiner chronischen

01:00:31.960 –> 01:00:39.380

Erkrankung. Und meine Sachbearbeiterin hatte genau dieselbe Erkrankung

01:00:39.380 –> 01:00:44.580

und konnte das total gut nachempfinden und hat dann den Einzelfall gesehen

01:00:45.140 –> 01:00:50.860

und hat alles daf├╝r getan, dass das entsprechend behandelt worden ist.

01:00:50.860 –> 01:00:53.220

Und ich will nicht sagen, das macht eine KI nicht.

01:00:53.220 –> 01:00:58.900

Ich sage nur, ich wei├č nicht, ob das immer so allgemeing├╝ltig gemacht wird.

01:00:58.900 –> 01:01:03.860

Und deswegen bin ich ganz froh, dass ich eine Sachbearbeiterin hatte,

01:01:03.860 –> 01:01:06.980

die das nachvollziehen konnte.

01:01:06.980 –> 01:01:09.060

Und das ist so das Einzige.

01:01:09.060 –> 01:01:10.380

Ich m├Âchte das nutzen.

01:01:10.380 –> 01:01:12.140

Ich finde das super.

01:01:12.140 –> 01:01:14.420

Es ist egal, ob wir es g├╝nstig oder billig nennen.

01:01:14.420 –> 01:01:20.920

Ich glaube einfach, dass es wichtig ist, dass wir es uns nochmal genau anschauen und dass wir nicht vergessen,

01:01:20.920 –> 01:01:25.220

das Problem ist nicht die KI, sondern das Problem ist der Mensch.

01:01:25.220 –> 01:01:28.620

Und das Problem ist vielleicht das wirtschaftliche Interesse.

01:01:28.620 –> 01:01:32.920

Und wenn wir das richtig machen und das richtig einspeisen, kann das super sein.

01:01:32.920 –> 01:01:39.920

Aber wenn wir nur die wirtschaftlichen Interessen dahinter sehen und das so eingespeist wird,

01:01:39.920 –> 01:01:46.080

dann ist es unter Umst├Ąnden so, dass dann Schwierigkeiten entstehen k├Ânnen,

01:01:46.080 –> 01:01:50.840

ja, wo Situationen entstehen k├Ânnen, die schwierig sind. Aber ich nutze es auch,

01:01:50.840 –> 01:01:54.520

ich nutze es gerne und m├Âchte nochmal auf den Link hinweisen, weil das mit der

01:01:54.520 –> 01:02:00.000

Buchidee finde ich toll und ja, w├╝rde mich auch freuen, wenn dadurch tolle

01:02:00.000 –> 01:02:04.520

B├╝cher und tolle Ideen entstehen und ja, vielen Dank f├╝rs Zuh├Âren.

01:02:04.520 –> 01:02:08.680

Ja, vielen, vielen lieben Dank und bevor ich gleich zu Sabine Switsche und wir

01:02:08.680 –> 01:02:14.520

dann im Anschluss an in unsere Abschlussrunde f├╝r heute ├╝bergehen, m├Âchte ich gerne noch zwei

01:02:14.520 –> 01:02:20.200

Aspekte aufgreifen. „The Moral Machine“ und „The Harvard University“ waren jetzt Stichworte,

01:02:20.200 –> 01:02:24.640

die gefallen sind in dem Zusammenhang. Da m├Âchte ich auch gerne den Kreis noch mal schlie├čen zu

01:02:24.640 –> 01:02:30.160

dem Szenariendenken, was wir auch wieder beim Autoren-Fr├╝hst├╝ck ├╝brigens hatten mit Dr.

01:02:30.160 –> 01:02:35.520

Franz H├╝tter. Also hier wurde ja auch noch mal darauf sensibilisiert, dass wir mehr Training

01:02:35.520 –> 01:02:43.360

darin brauchen, in im Szenarien denken und dass das eines der ├╝bergeordneten Skills ist, was wir

01:02:43.360 –> 01:02:49.320

hier wirklich, ob das jetzt mit der Arbeit mit KI ist, wie die Programmierung ist oder sonstiges

01:02:49.320 –> 01:02:53.800

oder auch andere Kontexte, dass es eben um Szenarien denken geht. Also das m├Âchte ich gerne

01:02:53.800 –> 01:02:57.800

hier noch mal unterstreichen und h├Ârt auf jeden Fall, wer es noch nicht geh├Ârt hat, wenn ich

01:02:57.800 –> 01:03:03.440

live dabei war, auch in diese Folge rein. ├ťbrigens erwarten wir Dr. Franz H├╝tter auch noch mal im

01:03:03.440 –> 01:03:08.080

Kontext von VR, auch zum Experten-Talk.

01:03:08.080 –> 01:03:10.480

Da freue ich mich auch schon mega drauf.

01:03:10.480 –> 01:03:13.040

In den n├Ąchste Woche ist das, glaube

01:03:13.040 –> 01:03:14.400

ich, wenn ich mich nicht irre. Also

01:03:14.400 –> 01:03:15.400

von daher es lohnt sich hier wirklich

01:03:15.400 –> 01:03:17.000

mal zu schauen, welche

01:03:17.000 –> 01:03:18.880

Entwicklungen es gibt. Das ist das

01:03:18.880 –> 01:03:24.000

eine. Und das zweite, was ich noch mal

01:03:24.000 –> 01:03:28.000

aufgreifen wollte, war das mit diesen

01:03:28.000 –> 01:03:29.480

ganzen, gerade war dieses Beispiel da,

01:03:29.480 –> 01:03:32.320

ich habe mit der Krankenkasse

01:03:29.480 –> 01:03:33.680

telefoniert und ich war froh, dass ein Mensch auf der anderen Seite war.

01:03:33.680 –> 01:03:37.100

Was wir dabei nicht vergessen d├╝rfen und ich glaube, dass es auch nochmal ein

01:03:37.100 –> 01:03:41.360

ganz wichtiger Impact, den es geben wird, ist, sind unsere Nachfolgegenerationen.

01:03:41.360 –> 01:03:46.120

Wir gehen ja immer von uns aus. Was f├╝r uns heute selbstverst├Ąndlich ist oder

01:03:46.120 –> 01:03:50.840

vielleicht merkw├╝rdig erscheint oder wo wir das Gef├╝hl haben, da bin ich schon

01:03:50.840 –> 01:03:54.240

froh, dass da ein Mensch auf der anderen Seite sitzt und so weiter, das wird sich

01:03:54.240 –> 01:04:01.140

ganz anders gestalten mit unseren Generationen, die damit aufwachsen, dass sie gar nichts

01:04:01.140 –> 01:04:03.140

anderes kennen, in Anf├╝hrungsstrichen.

01:04:03.140 –> 01:04:07.380

Und wir sehen das ja jetzt mit diesen ganzen Social-Media-Entwicklungen und so weiter und

01:04:07.380 –> 01:04:08.380

so fort.

01:04:08.380 –> 01:04:09.380

Ich sage nicht, dass das gut ist.

01:04:09.380 –> 01:04:11.620

Da sind wir jetzt wieder bei einer Bewertung, wenn wir dann anfangen, das zu analysieren

01:04:11.620 –> 01:04:13.180

und zu reflektieren und so weiter.

01:04:13.180 –> 01:04:15.580

Das k├Ânnen wir alles machen und wir k├Ânnen das diskutieren.

01:04:15.580 –> 01:04:20.180

Nichtsdestotrotz ├Ąndert es nichts an dem Umstand, dass hier immer dann, wenn eine neue

01:04:20.180 –> 01:04:24.780

Generation am Heranwachsen ist mit neuen Tools, Techniken und so weiter, ganz

01:04:24.780 –> 01:04:29.540

andere Ansichten eben auch hat, als das, womit wir gro├č geworden sind. Und das,

01:04:29.540 –> 01:04:33.660

womit wir uns vielleicht schwer tun, damit tut sich m├Âglicherweise eine

01:04:33.660 –> 01:04:36.740

Nachfolgegeneration ├╝berhaupt nicht mehr schwer, weil das f├╝r die total

01:04:36.740 –> 01:04:40.700

selbstverst├Ąndlich ist. Wie gesagt, das kann man in Frage stellen, kann gucken,

01:04:40.700 –> 01:04:43.500

was bedeutet das gesellschaftlich, da sind wir dann auf einer anderen Ebene

01:04:43.500 –> 01:04:47.740

der Diskussion und k├Ânnen uns ├╝berlegen, was wollen wir, was wollen wir nicht. Und

01:04:47.740 –> 01:04:51.100

Das ist auch total berechtigt und auch sinnvoll, diese Diskussionen zu f├╝hren.

01:04:51.100 –> 01:04:55.860

Aber nicht per se davon auszugehen, dass so wie wir das heute erachten und sehen,

01:04:55.860 –> 01:04:59.740

dass auch die Nachfolgegenerationen das genauso erachten und sehen.

01:04:59.740 –> 01:05:02.180

Die werden das teilweise eben auch ganz anders erleben.

01:05:02.180 –> 01:05:05.180

Und damit gerne zu Sabine.

01:05:05.180 –> 01:05:09.420

Ja, mir fiel noch mal ein vierter Punkt an, und zwar war Donnerstag Feiertag

01:05:09.420 –> 01:05:13.060

und ich lag auf der Terrasse in der Sonne und hab Atlas der Entscheider

01:05:13.060 –> 01:05:17.860

und da war ein KI-Thema und das fand ich einfach so simpel dargestellt.

01:05:17.860 –> 01:05:23.800

Da war einfach ein Ablaufdiagramm und da war so eine B├╝ndelung, wo geht welche

01:05:23.800 –> 01:05:29.260

Aufgabe hin und da war einfach, okay, wenn es 100 Prozent fehlergenau, keine Fehler

01:05:29.260 –> 01:05:33.740

ist, geht es sowieso an die KI. Wenn zehn Prozent, jetzt frage ich mich nicht nach den

01:05:33.740 –> 01:05:38.540

Prozentzahlen, aber wenn zehn Prozent der Mensch, dann geht, macht es einen Umweg und

01:05:38.540 –> 01:05:43.580

noch mal kontrolliert, wie wichtig sind die 10 Prozent. Wenn das am Ende nicht,

01:05:43.580 –> 01:05:48.580

dann geht es auch an die KI. Und dann kommen die Aufgaben, wo man sagt,

01:05:48.580 –> 01:05:53.460

nee, das geht nicht an die KI. Und ich denke, das ist einfach ein Abbild, wie es

01:05:53.460 –> 01:05:56.780

zuk├╝nftig in den Unternehmen geht. Das ist die Basis f├╝r eine

01:05:56.780 –> 01:06:01.740

Unternehmensberatung, wenn die heute in ein Unternehmen reingehen und sagen, okay, was

01:06:01.740 –> 01:06:06.700

kann hier in Richtung KI gehen. Und das ist Realit├Ąt. Ich glaube, da brauchen wir auch

01:06:06.700 –> 01:06:10.580

nicht immer dar├╝ber nachzudenken. Das ist Realit├Ąt. Was ich noch sagen wollte, mir

01:06:10.580 –> 01:06:14.000

ist auch wieder der Name eingefallen, Snapchat, aber ist egal wie das Tool auch

01:06:14.000 –> 01:06:19.100

hei├čt. Ich glaube, da sind wir auch wieder als Eltern mitgefragt. Also ich bin fest

01:06:19.100 –> 01:06:22.420

davon ├╝berzeugt, bei meiner gro├čen Weise ist bei der mittleren auch schon. Die

01:06:22.420 –> 01:06:25.740

arbeiten schon mit Chat-GPT. Die haben, denke ich, schon mal Vernunft.

01:06:25.740 –> 01:06:29.100

Also sind die schon so weit. Bei dem Kleinen bin ich mir da nicht so sicher,

01:06:29.100 –> 01:06:32.420

dass man einfach mit dem auch im Gespr├Ąch bleibt und sagt, was machst du da?

01:06:32.420 –> 01:06:37.380

Wie ist das? Das finde ich aber cool. Wenn da aber einer sagt, geh nicht mit dir mit.

01:06:37.380 –> 01:06:42.620

Du hast das schon verstanden. Und da ist nat├╝rlich dann auch wieder die Frage, wie

01:06:42.620 –> 01:06:47.340

eng ist der Draht von Eltern zu Kindern? Wo k├Ânnen wir da ein bisschen, weil man

01:06:47.340 –> 01:06:52.300

muss ja mal ehrlich sein, die Kinder sind uns ja in vielen weit ├╝berlegen. Und wie

01:06:52.300 –> 01:06:56.220

will ich mit jemandem sprechen, wenn ich selbst keine Ahnung davon habe? Das

01:06:56.220 –> 01:06:59.980

wollte ich gerne noch mal sagen. Und dann das Thema Bildung nat├╝rlich. Es gibt

01:06:59.980 –> 01:07:03.660

kaum noch irgendwo einen Tag, wo man sich nicht mit Freunden trifft und wir reden

01:07:03.660 –> 01:07:07.980

├╝ber Bildung. Aber warum passiert denn nichts? Also ich bin da v├Âllig bei dir

01:07:07.980 –> 01:07:14.260

Layla und es muss das rein und wir m├╝ssen kein Wissen mehr pr├╝geln, wir

01:07:14.260 –> 01:07:18.880

m├╝ssen das anwenden. Nur auch da denke ich fast, Layla du bist da bestimmt eine

01:07:18.880 –> 01:07:23.780

r├╝hmliche Ausnahme, dass viele Kinder in dem Thema weiter sind als die Lehrer.

01:07:23.780 –> 01:07:31.300

Aber warum wird nicht oben angesetzt? Die letzte Frage ist noch, so wie ich da

01:07:31.300 –> 01:07:37.500

vorhin zugeh├Ârt habe, m├╝sse doch KI die L├Âsung unseres Fachkr├Ąftemangels

01:07:37.500 –> 01:07:41.500

sind. Nat├╝rlich sind die heute noch nicht alle an dem Level, aber ich kann die ja

01:07:41.500 –> 01:07:44.980

noch ein bisschen schlauer machen und dann habe ich doch Arbeitskr├Ąfte. Das war

01:07:44.980 –> 01:07:50.420

jetzt noch mal eine provokative Frage. Ich w├╝nsche euch also ein toller Raum.

01:07:50.420 –> 01:07:55.460

Ja, ich brauche glaube ich kein Schlusswort mehr zu sagen, weil ich fand den Raum insgesamt toll,

01:07:55.460 –> 01:08:00.020

ich fand den Ablauf toll. Das war mein Schlusswort. Ich w├╝nsche euch allen ein tolles Wochenende.

01:08:00.020 –> 01:08:05.740

Ja, super, vielen, vielen lieben Dank. Die Frage lassen wir einfach mal zum Nachwirken so stehen

01:08:05.740 –> 01:08:12.180

und damit gehen wir dann auch in die Abschlussrunde. Ich habe das verzeichnet, liebe Sabine, nehme ich

01:08:12.180 –> 01:08:19.500

gerne als Abschlusswort dann auch an und m├Âchte gerne tats├Ąchlich jetzt auch noch mal gucken,

01:08:19.500 –> 01:08:23.580

was eure Highlights aus dem Raum sozusagen sind, um dann gerne auch noch

01:08:23.580 –> 01:08:27.620

mal abzurunden und das morgige Thema entsprechend anzuk├╝ndigen.

01:08:27.620 –> 01:08:30.260

Marc, J├╝rgen Layla in der Reihenfolge bitte.

01:08:30.260 –> 01:08:34.380

Ich m├Âchte gerne noch mal polarisieren. Unser Gehirn hat auch die Moral des

01:08:34.380 –> 01:08:38.100

Programmierers, unter anderem unsere Glaubenss├Ątze und unser Umfeld und die

01:08:38.100 –> 01:08:41.660

L├Âsung f├╝r mich f├╝r all diese Dinge sind immer Hinterfragen. Wenn das

01:08:41.660 –> 01:08:45.820

hinterfragt wird, egal ob die KI das hinterfragt oder wir, dann sind wir schon

01:08:45.820 –> 01:08:48.340

damals schon ein ganzes St├╝ck weiter und der letzte Punkt, den ich noch nicht

01:08:48.340 –> 01:08:50.740

gesagt habe, KI ist ja auch unheimlich teuer.

01:08:50.740 –> 01:08:54.340

Chat GPT hat momentan Betriebskosten von 700.000 US-Dollar.

01:08:54.340 –> 01:08:58.540

Also muss uns auch klar sein, auch das Nutzen dieser KI in Zukunft

01:08:58.540 –> 01:09:01.540

wird Geld kosten und auch das ist ein anderes Thema, kann sich das

01:09:01.540 –> 01:09:03.540

jedes Unternehmen leisten und so weiter und so weiter.

01:09:03.540 –> 01:09:05.740

Es wird nicht umsonst bleiben, es wird Geld kosten.

01:09:05.740 –> 01:09:09.340

Vielen, vielen lieben Dank. J├╝rgen.

01:09:09.340 –> 01:09:14.340

Ja, danke euch allen wie immer f├╝r eure Beitr├Ąge.

01:09:14.340 –> 01:09:17.140

Ich m├Âchte mein Schlimmstes allerdings etwas vergewaltigen,

01:09:17.140 –> 01:09:21.280

dir noch mal speziell zu danken, liebe Yasemin, f├╝r die letzte Ausf├╝hrung mit dem

01:09:21.280 –> 01:09:28.180

mit dem Link auf das Szenario und Szenario vorgehen bei L├Âsung als

01:09:28.180 –> 01:09:35.300

Probleml├Âsungszyklus und ich denke, dass das Thema KI pr├Ądestiniert ist

01:09:35.300 –> 01:09:40.860

f├╝r die konstruktive Anwendung genau dieses Szenario Modells, weil es darum

01:09:40.860 –> 01:09:46.540

geht zu spezifizieren und gedankliche Konstrukte f├╝r unsere Zukunft

01:09:46.540 –> 01:09:55.740

zu gestalten, wie es sieht die derzeitige, das derzeitige Szenario, das Ist-Szenario unter

01:09:55.740 –> 01:10:04.660

dem Einfluss heute schon von KI aus im Gegensatz zu dem erwarteten Szenario, um daraus dann schlie├čen

01:10:04.660 –> 01:10:13.020

zu k├Ânnen auf das gew├╝nschte Szenario und dar├╝ber als gro├če Metaebene irgendwann abgeleitet aus den

01:10:13.020 –> 01:10:19.060

Vor- und Nachteilen, die wir heute aus dem Ist-Szenario abgeleitet haben, das utopische

01:10:19.060 –> 01:10:26.260

Szenario. Insofern fand ich diese Verbindung mit Szenario, Szenario-Modell absolut treffend.

01:10:26.260 –> 01:10:32.020

Herzlichen Dank, sch├Ânen Samstag und vielleicht bis morgen, das steht bei mir noch offen.

01:10:32.020 –> 01:10:35.260

Ja, gro├čartig. Vielen, vielen Dank, Layla.

01:10:35.260 –> 01:10:44.820

Ja, also mir geht es so, dass ich sehr viele Fragezeichen habe, aber daf├╝r weniger Ausrufezeichen.

01:10:44.820 –> 01:10:51.340

Das finde ich schon mal sehr sch├Ân. Ich merke, dass man die Zukunft manchmal wie ein Wahrsager

01:10:51.340 –> 01:10:58.380

voraussehen sollte, muss, will und das vielleicht gar nicht kann. Aber das ist auch gut so. Und zum

01:10:58.380 –> 01:11:03.100

Schluss m├Âchte ich noch mal Bertolt Brecht aus „Der gute Mensch“ von C├ęgeuns zitieren, weil ich finde,

01:11:03.100 –> 01:11:04.780

Das passt gerade sehr gut.

01:11:04.780 –> 01:11:07.460

Wir stehen selbst entt├Ąuscht und sind betroffen.

01:11:07.460 –> 01:11:09.580

Den Vorhang zu und alle Fragen offen.

01:11:09.580 –> 01:11:11.260

Ich freue mich auf weitere R├Ąume.

01:11:11.260 –> 01:11:12.780

Danke f├╝rs Zuh├Âren.

01:11:12.780 –> 01:11:15.340

Ja, gro├čartig. Vielen, vielen lieben Dank.

01:11:15.340 –> 01:11:19.500

Ja, und abschlie├čend m├Âchte ich gerne auch noch mal sozusagen zusammenf├╝hren

01:11:19.500 –> 01:11:22.460

und noch mal eines festhalten, n├Ąmlich wir.

01:11:22.460 –> 01:11:24.340

Also zum einen finde ich es wunderbar.

01:11:24.340 –> 01:11:27.500

Layla, wenn ganz viele Fragezeichen da sind, dann ich sage es ja immer wieder.

01:11:27.500 –> 01:11:31.500

Wenn Fragezeichen da sind, dann sind wir ins Gr├╝beln, ins Denken gekommen.

01:11:31.540 –> 01:11:34.300

Und das bedeutet, dass wir die M├Âglichkeit er├Âffnet haben,

01:11:34.300 –> 01:11:37.460

sozusagen hier nochmal Gedanken zu sortieren,

01:11:37.460 –> 01:11:40.980

in die Reflexion zu gehen, nachwirken zu lassen

01:11:40.980 –> 01:11:43.900

und vielleicht auch neue Antworten, neue Optionen zu entdecken,

01:11:43.900 –> 01:11:47.580

neue Antworten zu finden f├╝r uns oder auch alte Antworten zu bekr├Ąftigen.

01:11:47.580 –> 01:11:52.060

Auch das ist ja durchaus eine M├Âglichkeit, eine Option, die wertvoll und wichtig ist.

01:11:52.060 –> 01:11:57.260

Und ich m├Âchte noch mal ganz kurz an diesen Punkt mit andocken,

01:11:57.260 –> 01:11:59.220

weil es jetzt mehrfach heute auch gesagt wurde,

01:11:59.220 –> 01:12:03.220

Wir k├Ânnten im Grunde genommen ein riesen Dachthema zur KI allein schon machen.

01:12:03.220 –> 01:12:05.580

Ja, habt ihr recht. Vielleicht kommt das auch irgendwann mal.

01:12:05.580 –> 01:12:07.940

K├Ânnen wir ja mal schauen, wie sich das so weiterentwickelt.

01:12:07.940 –> 01:12:11.900

Mein Ansinnen unter diesem Dachthema Pioniergeist mit Hirn ist tats├Ąchlich

01:12:11.900 –> 01:12:13.860

jetzt mal die Zusammenh├Ąnge aufzuzeigen.

01:12:13.860 –> 01:12:16.940

Und ihr werdet in den n├Ąchsten Tagen und Wochen einfach sehen.

01:12:16.940 –> 01:12:21.780

Im Grunde genommen werden wir vielleicht ein St├╝ck weit auch durch die Medien

01:12:21.780 –> 01:12:27.300

getrieben, sozusagen immer wieder mit unserem Fokus auf etwas Bestimmtes gelenkt.

01:12:27.340 –> 01:12:30.820

Aber letztendlich geht es um das Verstehen der Zusammenh├Ąnge.

01:12:30.820 –> 01:12:38.420

Es ist eben nicht die KI oder es ist nicht die Blockchain oder es ist nicht VR oder was wei├č ich was,

01:12:38.420 –> 01:12:44.500

die die Ver├Ąnderung hier im Einzelnen betrachtet, herbeif├╝hren wird und zwar in dieser Potenzierung,

01:12:44.500 –> 01:12:51.660

sondern dieses Zusammenspiel dieser Technologien, die im Hintergrund ├╝ber viele Jahre schon gelaufen sind.

01:12:51.660 –> 01:12:56.180

Heute sehen wir die ersten Ergebnisse daraus, die jetzt f├╝r uns auch sp├╝rbar werden.

01:12:56.180 –> 01:13:01.500

Und wir haben eine Idee davon bekommen durch die Anwendung, in welche Richtung es vielleicht

01:13:01.500 –> 01:13:04.980

gehen k├Ânnte oder was es noch alles k├Ânnen wird in Zukunft.

01:13:04.980 –> 01:13:08.780

Und das wird auch kommen, viel schneller, als wir uns das teilweise vorstellen k├Ânnen.

01:13:08.780 –> 01:13:14.780

Und umso wichtiger ist es eben auch, die Zusammenh├Ąnge, also nicht nur die KI im Einzelnen zu betrachten,

01:13:14.780 –> 01:13:20.420

sondern hier die technologischen Entwicklungen, die stattfinden, zusammen zu betrachten und

01:13:20.420 –> 01:13:27.220

in der Kombination zu denken, um zu realisieren, was sich ver├Ąndern wird und gleichzeitig auch die

01:13:27.220 –> 01:13:31.900

Potenziale f├╝r uns zu entdecken. Und das ist nochmal etwas, was ich gerne abschlie├čend auch

01:13:31.900 –> 01:13:36.300

nochmal unterstreichen m├Âchte. Damit sind wir heute Morgen n├Ąmlich eingestiegen. Das hei├čt,

01:13:36.300 –> 01:13:42.100

wir neigen ja dazu, weil es immer unser Gehirn denkt nat├╝rlich automatisch an Existenzsicherung.

01:13:42.100 –> 01:13:45.780

Was bedeutet das f├╝r uns? Wollen wir das ├╝berhaupt? Und so weiter und so fort. Und

01:13:45.780 –> 01:13:49.660

diese Fragestellungen sind auch berechtigt und sie haben auch ihren Raum und sie d├╝rfen auch

01:13:49.660 –> 01:13:54.340

ihren Platz finden. Gleichzeitig, wir denken ja h├Ąufig in entweder-oder-Konstellationen,

01:13:54.340 –> 01:14:01.420

ist es jetzt wichtig, immer wieder unseren Fokus ganz bewusst zu steuern auf, was bedeutet das f├╝r

01:14:01.420 –> 01:14:06.420

mich? Was bedeutet die KI f├╝r mich? Wo kann ich sie tats├Ąchlich heute schon nutzen, einsetzen,

01:14:06.420 –> 01:14:10.660

Potenziale entfalten und so weiter? Und die gleiche Fragestellung d├╝rft ihr euch dann in

01:14:10.660 –> 01:14:14.940

den n├Ąchsten Tagen stellen, wenn wir ├╝ber Blockchain, ├╝ber Digitalisierung, ├╝ber was

01:14:14.940 –> 01:14:20.940

wei├č ich was sprechen, ohne den Aspekt der gesellschaftlichen Ebene auszulassen oder der

01:14:20.940 –> 01:14:25.900

volkswirtschaftlichen Ebene. Auch dar├╝ber k├Ânnen wir gerne diskutieren. Wir d├╝rfen aber uns

01:14:25.900 –> 01:14:33.020

disziplinieren, immer wieder nicht zu sehr ausschlie├člich aus der einen Perspektive oder

01:14:33.020 –> 01:14:38.660

Brille zu gucken, n├Ąmlich aus dieser Sorgenbrille, sondern auch aus der Potenzialbrille. Und wenn ich

01:14:38.660 –> 01:14:44.940

den „Wof├╝r kann ich es einsetzen, wof├╝r kann ich es f├╝r mich nutzen?“ auch mit betrachte,

01:14:44.940 –> 01:14:53.060

dann kann ich eben heute auch schon ganz gewaltige Dinge damit machen, die ja mein Potenzial

01:14:53.060 –> 01:14:57.980

vervielfachen, vertausendfachen an der Stelle. Ob das jetzt KI oder andere Tools oder die

01:14:57.980 –> 01:15:02.340

kombinierte Version dieser Tools ist, ist mal erstmal dahingestellt. Das muss dann jeder f├╝r

01:15:02.340 –> 01:15:07.500

sich auch nochmal selbst pr├╝fen. Und Anwendungsbereiche gibt es genug. Heute habe ich

01:15:07.500 –> 01:15:12.260

einen Link dabei, wo ihr es eben mit einsetzen k├Ânnt, zum Beispiel auch, um ein Buch zu

01:15:12.260 –> 01:15:17.860

schreiben. M├╝sst ihr nicht, k├Ânnt ihr machen. Ist f├╝r jeden eine individuelle Entscheidung.

01:15:17.860 –> 01:15:23.940

Ich kann euch nur empfehlen, euch mit diesen Themen wirklich intensiv zu befassen, denn

01:15:23.940 –> 01:15:28.340

und das ist das, was ich eingangs heute Morgen gesagt habe, wir neigen dazu, linear einfach

01:15:28.340 –> 01:15:33.200

zu denken. Das ist das, was unser Gehirn kann. Wir haben Schwierigkeiten damit, in der Potenzierung

01:15:33.200 –> 01:15:37.120

zu denken. Was hier aber jetzt passiert, ist durch diese ganzen technologischen

01:15:37.120 –> 01:15:42.760

Entwicklungen einzeln genommen und dann in der Kombination betrachtet, ist

01:15:42.760 –> 01:15:47.880

wirklich eine Beschleunigung, eine Potenzierung hoch, ich wei├č nicht wie

01:15:47.880 –> 01:15:50.960

viel. Das k├Ânnen wir uns gar nicht vorstellen, das kann unser Gehirn

01:15:50.960 –> 01:15:55.520

nicht leisten. Das ist so ├Ąhnlich wie der Zinseszinseffekt. H├Âren wir immer

01:15:55.520 –> 01:16:00.560

wieder, h├Ârt sich toll an, aber im Grunde genommen geht unser Gehirn nicht rein.

01:16:00.560 –> 01:16:02.920

Nein, das Rechnen h├Ârt irgendwo einfach auf.

01:16:02.920 –> 01:16:04.720

Also da sind wir linear unterwegs.

01:16:04.720 –> 01:16:07.600

Und hier haben wir eine Potenzierung, die jetzt stattfindet.

01:16:07.600 –> 01:16:12.640

Ich habe nicht die M├Âglichkeit, mich jetzt zur├╝ckzulehnen und zu sagen, ich beobachte

01:16:12.640 –> 01:16:15.240

das oder ich mache das erst in einem Jahr.

01:16:15.240 –> 01:16:21.200

Ich darf jetzt wirklich gucken und erkennen, welche M├Âglichkeiten es gibt, wie ich das

01:16:21.200 –> 01:16:26.160

f├╝r mich einsetzen kann, um hier in eine Potenzierung reinzugehen, um nicht das Gap

01:16:26.160 –> 01:16:30.320

jetzt ganz gro├č werden zu lassen und das nicht als Negativszenario, sondern wirklich,

01:16:30.320 –> 01:16:36.080

Es wird schwierig f├╝r jeden von uns, hier aufzuholen, weil Lernen braucht Zeit.

01:16:36.080 –> 01:16:40.320

Und wenn ich diese Zeit jetzt an mir vorbeistreichen lasse, der eine vielleicht drei Monate, der

01:16:40.320 –> 01:16:43.960

andere sechs Monate, der andere ein Jahr, vergesst bitte nicht, dass wir Menschen haben

01:16:43.960 –> 01:16:48.480

auf diesem Markt, die schon seit Jahren diese Technologien f├╝r sich nutzen und einsetzen.

01:16:48.480 –> 01:16:53.360

Und dementsprechend ist es umso wichtiger, dass wir jetzt immer wieder auch uns die Frage

01:16:53.360 –> 01:16:55.680

stellen, was ist der Nutzen f├╝r mich?

01:16:55.680 –> 01:16:57.120

F├╝r was kann ich es einsetzen?

01:16:57.120 –> 01:16:58.680

Wie kann ich es einsetzen?

01:16:58.680 –> 01:17:03.160

Und das ist mein Ansinnen, mit diesen R├Ąumen jetzt wirklich die n├Ąchsten Tage und Wochen

01:17:03.160 –> 01:17:08.080

diese Zusammenh├Ąnge aufzuzeigen, deswegen immer wieder die Reduktion der Komplexit├Ąt

01:17:08.080 –> 01:17:13.820

auf ein Themengebiet pro Raum sozusagen, um dann eben die Verkn├╝pfung herzustellen und

01:17:13.820 –> 01:17:17.880

dann die entsprechenden Diskussionen hier zuzulassen, f├╝r euch den Raum aufzumachen,

01:17:17.880 –> 01:17:21.800

in die Reflexion zu gehen und angelehnt daran, Entscheidungen zu treffen.

01:17:21.800 –> 01:17:27.280

Und diese Entscheidungen nicht zu vertagen auf „irgendwann mal“, sondern so schnell

01:17:27.280 –> 01:17:30.440

wie m├Âglich einfach mal loszulaufen und Erfahrungen zu sammeln.

01:17:30.440 –> 01:17:34.040

Ich glaube, darum geht es, Erfahrungen zu sammeln, auszuprobieren,

01:17:34.040 –> 01:17:37.160

Fehler zu machen und aus den Fehlern wieder auch zu lernen.

01:17:37.160 –> 01:17:39.120

In diesem Sinne. Vielen, vielen lieben Dank.

01:17:39.120 –> 01:17:40.520

Wir haben heute etwas ├╝berzogen.

01:17:40.520 –> 01:17:43.400

Seht es mir nach. Aber ich glaube, es lag einfach auch an dem Thema.

01:17:43.400 –> 01:17:45.960

Ich bin gespannt, wie es die n├Ąchsten Tage weitergeht.

01:17:45.960 –> 01:17:49.560

Morgen haben wir jetzt erst mal das Autoren-Fr├╝hst├╝ck mit Janik Gest├Âr.

01:17:49.560 –> 01:17:51.000

Da freue ich mich auch total drauf.

01:17:51.000 –> 01:17:53.600

Morgen um acht. Ihr seid herzlich eingeladen, mit dabei zu sein.

01:17:53.600 –> 01:17:55.720

Und zwar geht es um Ich bin so frei.

01:17:55.760 –> 01:17:59.080

raus aus dem Hamsterrad, rein in den richtigen Job.

01:17:59.080 –> 01:18:01.760

Und das wird auch noch mal unter dem Dach „Pioniergeist mit Hirn“

01:18:01.760 –> 01:18:03.360

ganz spannend, diese Fragestellung.

01:18:03.360 –> 01:18:05.160

Was ist denn ├╝berhaupt der richtige Job?

01:18:05.160 –> 01:18:07.360

Was ist denn ├╝berhaupt der Job der Zukunft?

01:18:07.360 –> 01:18:08.920

In Anf├╝hrungsstrichen und, und, und.

01:18:08.920 –> 01:18:11.480

All diese Fragen, um die wird es morgen gehen.

01:18:11.480 –> 01:18:12.640

Ich bin total gespannt.

01:18:12.640 –> 01:18:15.720

Ihr seid herzlich eingeladen und ich kann euch versichern,

01:18:15.720 –> 01:18:16.720

es wird spannend.

01:18:16.720 –> 01:18:19.800

Also insofern versucht mit dabei zu sein, wenn ihr es zeitlich schafft.

01:18:19.800 –> 01:18:21.160

Bis dahin. Ciao.

3 Mythen entlarvt - Wenn die Wissenschaft Wissen schafft! | Dr. Yasemin Yazan

Wenn Wissenschaft Wissen schafft!

Leider gibt es auf dem Markt sehr viel Halbwissen. Sei es, weil z. B. Forschungsergebnisse falsch interpretiert oder falsche Kausalit├Ąten hergestellt werden oder ├ťbertragungen in andere Kontexte stattfinden, die gar nicht Untersuchungsgegenstand waren.

Wir greifen 3 Mythen auf und zeigen, was die Wissenschaft schon l├Ąngst wei├č:

- Warum die Bed├╝rfnispyramide von Maslow keine zuverl├Ąssige Grundlage f├╝r Motivation ist

- Warum Pers├Ânlichkeitstests als Fundament f├╝r Personalentscheidungen fragw├╝rdig sind

- Warum es eine Quote als wirksames Mittel gegen Unconscious Bias braucht

Datenschutz

Einverst├Ąndniserkl├Ąrung

Herzlichen Gl├╝ckwunsch - Dein Download erwartet dich in deinem Mail-Postfach!