Select Page

Gehirnfutter f├╝r Pioniergeister: Was ist K├╝nstliche Intelligenz & welche Auswirkungen hat sie auf die Arbeitswelt? Das ist die Fragestellung mit der wir uns in Raum #856 des Deep Talk Clubs unter dem Dachthema “Pioniergeist mit Hirn” befassen. H├Âre selbst, welche Beispiele aufgegriffen wurden und welche Perspektiven im Dialog entstanden sind…

Transkription: ­čçę­č笭čçĘ­čçş­č玭čç╣ #856 KI & Arbeitswelt | Von Dr. Yasemin Yazan

00:00:00.000 –> 00:00:03.280

Einen wundersch├Ânen guten Morgen w├╝nsche ich.

00:00:03.280 –> 00:00:11.480

Ja, nach einer gestrigen, ganz, ganz tollen Veranstaltung von Dr. Johanna Dahm,

00:00:11.480 –> 00:00:17.520

die Pressekonferenz, die stattgefunden hat in Frankfurt, einige von euch waren auch mit vor Ort

00:00:17.520 –> 00:00:19.440

und es war gro├čartig.

00:00:19.440 –> 00:00:21.480

Freue ich mich heute, den Morgen zu starten.

00:00:21.480 –> 00:00:26.800

Ich kann euch sagen, es ist noch in den Knochen zu sp├╝ren.

00:00:26.800 –> 00:00:31.960

Und trotzdem und gerade deswegen bin ich total geflasht heute Morgen.

00:00:31.960 –> 00:00:36.520

Und ja, ich habe euch auch einen Link wieder mitgebracht und ich werde es auch alles gleich

00:00:36.520 –> 00:00:37.520

aufkl├Ąren.

00:00:37.520 –> 00:00:39.800

Also ich denke, ganz, ganz spannend wird es heute.

00:00:39.800 –> 00:00:46.160

Ich freue mich total auf diesen Austausch mit euch und ├╝ber KI und die Arbeitswelt

00:00:46.160 –> 00:00:47.160

zu sprechen.

00:00:47.160 –> 00:00:51.520

Also was ist eigentlich k├╝nstliche Intelligenz und welche Auswirkungen hat sie auf die Arbeitswelt?

00:00:51.520 –> 00:00:57.920

Das ist das Thema, bei dem wir unter dem Dachthema Pioniergeist mit Hirn gemeinsam heute mal

00:00:57.920 –> 00:00:58.920

draufschauen wollen.

00:00:58.920 –> 00:01:03.160

Und ├Ąhnlich wie heute mit der KI werden wir in den n├Ąchsten Tagen eben auch andere Aspekte

00:01:03.160 –> 00:01:09.040

aufmachen, ob das die Blockchain ist, ob das andere Technologien sind, VR-Brillen und so

00:01:09.040 –> 00:01:10.040

weiter und so fort.

00:01:10.040 –> 00:01:15.240

Also wir werden uns hier ganz vielf├Ąltig eben neue Technologien auch nochmal anschauen,

00:01:15.240 –> 00:01:20.200

um eben auch die Zusammenh├Ąnge zu verstehen, um zu realisieren, was bedeutet das denn eigentlich,

00:01:20.200 –> 00:01:22.080

Wie kann ich das vielleicht auch f├╝r mich nutzen?

00:01:22.080 –> 00:01:26.640

Und was bedeutet das aber auch nicht nur auf der individualistischen Ebene, sondern eben

00:01:26.640 –> 00:01:29.920

auch gemeinschaftlich gedacht, als Gesellschaft gedacht?

00:01:29.920 –> 00:01:31.760

Wo sind die Gefahren?

00:01:31.760 –> 00:01:33.640

Wo k├Ânnen wir mit anpacken?

00:01:33.640 –> 00:01:35.960

Wie k├Ânnen wir das aber trotzdem f├╝r uns auch nutzen?

00:01:35.960 –> 00:01:39.360

Und welchen Beitrag k├Ânnen wir in diesem Zusammenhang leisten?

00:01:39.360 –> 00:01:41.880

Und was hat das Ganze mit Pioniergeist, mit Hirn zu tun?

00:01:41.880 –> 00:01:44.960

Also von daher wird das sehr, sehr spannend.

00:01:44.960 –> 00:01:46.840

Und insofern freue ich mich auch riesig.

00:01:46.840 –> 00:01:52.400

Und in diesem Zusammenhang m├Âchte ich gerne zum Einstieg heute in das KI-Thema auch verk├╝nden

00:01:52.400 –> 00:01:53.720

und freue mich dar├╝ber.

00:01:53.720 –> 00:01:59.840

Ja, ich hatte es gesagt, die Knowledge Base, die wird vorbereitet f├╝r euch im Hintergrund.

00:01:59.840 –> 00:02:05.320

Wir haben hier einiges in den letzten Wochen fabriziert, auf die Beine gestellt und so

00:02:05.320 –> 00:02:06.320

weiter.

00:02:06.320 –> 00:02:10.280

Das Ganze wird weiter befl├╝gelt, gef├╝llt und so weiter.

00:02:10.280 –> 00:02:13.320

Aber der erste Wurf ist bereits ver├Âffentlicht.

00:02:13.320 –> 00:02:19.760

findet es auf der Webseite von mir, jasminjasan.com, also vor- und nachname.com.

00:02:19.760 –> 00:02:25.000

Und dann gibt es einen Reiter oder Men├╝punkt Knowledge Base.

00:02:25.000 –> 00:02:29.040

Und da sind von A bis Z zumindest schon mal

00:02:29.040 –> 00:02:34.200

mindestens ein Begriff aufgegriffen unter diesem Dach Pioniergeist mit Hirn.

00:02:34.200 –> 00:02:36.840

Und hier wird noch ganz, ganz viel mehr folgen.

00:02:36.840 –> 00:02:38.680

Also es ist der erste Entwurf.

00:02:38.680 –> 00:02:42.800

Das hei├čt, viele Verlinkungen sind noch, also Verlinkungen sind noch gar keine

00:02:43.000 –> 00:02:48.440

Das ist jetzt etwas, was sukzessive Schritt f├╝r Schritt kommen wird. Ich hatte schon angek├╝ndigt,

00:02:48.440 –> 00:02:54.560

dass hier auch verschiedene hochkar├Ątige Experten, Wissenschaftler mitschreiben werden,

00:02:54.560 –> 00:02:59.240

auch hier Beitr├Ąge noch mitliefern werden. Auch hier finden Gespr├Ąche gerade statt.

00:02:59.240 –> 00:03:04.920

Und um die Qualit├Ąt entsprechend hochzuhalten, habe ich mich entschieden, dass es eben Personen

00:03:04.920 –> 00:03:10.040

sein werden, die auch direkt an die Wissenschaft angedockt sind. Und das sind in der Regel die,

00:03:10.040 –> 00:03:14.860

die auch irgendwie promoviert haben, Lehren an Hochschulen und so weiter und so fort. Und insofern

00:03:14.860 –> 00:03:18.440

passiert hier jetzt in den n├Ąchsten Tagen und Wochen ganz, ganz viel. Ich freue mich drauf,

00:03:18.440 –> 00:03:23.200

damit wir diesen ersten Wurf in Anf├╝hrungsstrichen erstmal ver├Âffentlichen k├Ânnen und nicht sagen,

00:03:23.200 –> 00:03:28.520

ah, Speed of Implementation ist hier ein Thema, damit wir nicht sagen, wir warten jetzt wochenlang,

00:03:28.520 –> 00:03:33.800

bis irgendwelche Beitr├Ąge da sind oder, oder, oder. Habe ich mich entschieden, einfach Datenmaterial

00:03:33.800 –> 00:03:39.200

aufzugreifen, was bereits da ist, einiges neu hinzuzuf├╝gen und das eben entsprechend zu

00:03:39.200 –> 00:03:44.480

ver├Âffentlichen. Das hei├čt, es sind dann Beitr├Ąge von ganz kurz ├╝ber ganz lang

00:03:44.480 –> 00:03:48.240

alles M├Âgliche schon mal mit dabei, damit wir zumindest bei jedem Buchstaben auch

00:03:48.240 –> 00:03:53.360

schon mal was drinstehen haben. Und wundert euch da eben nicht, das ist noch

00:03:53.360 –> 00:03:56.600

nicht voll umf├Ąnglich, sondern das wird jetzt weiter wachsen und da freue ich

00:03:56.600 –> 00:04:00.800

mich total drauf. Und ja, und in diesem Zusammenhang, warum erw├Ąhne ich das

00:04:00.800 –> 00:04:04.920

gerade jetzt und heute? Weil das passt zu unserem Thema k├╝nstliche Intelligenz,

00:04:04.920 –> 00:04:10.760

Denn dazu ist auch ein Beitrag eingestellt, der ├╝brigens vor einigen Jahren schon entstanden

00:04:10.760 –> 00:04:12.400

ist, also auch nicht neu ist.

00:04:12.400 –> 00:04:16.760

Den gab es vorher schon im Englischen, der wurde jetzt ├╝bersetzt f├╝r die Knowledge

00:04:16.760 –> 00:04:22.120

Base ganz spezifisch, um hier eben zur k├╝nstlichen Intelligenz einfach diesen Beitrag mit aufzugreifen.

00:04:22.120 –> 00:04:28.080

Und damit m├Âchte ich gerne erst mal einsteigen als Impuls sozusagen oder f├╝r die, die vielleicht

00:04:28.080 –> 00:04:30.960

noch nicht genau wissen, was ist denn eigentlich k├╝nstliche Intelligenz.

00:04:30.960 –> 00:04:36.840

Relativ grob l├Ąsst sich zusammenfassen, dass es um die F├Ąhigkeit eines Computers geht

00:04:36.840 –> 00:04:43.040

oder eines computergest├╝tzten Roboters mit verschiedenen T├Ątigkeiten, die in ├Ąhnlicher

00:04:43.040 –> 00:04:47.560

Weise sozusagen ausgef├╝hrt werden wie bei intelligenten Lebewesen.

00:04:47.560 –> 00:04:49.680

Also das ist das Ziel, was dahinter ist.

00:04:49.680 –> 00:04:54.080

Und daher wird im Gegensatz zur nat├╝rlichen Intelligenz der Begriff “k├╝nstliche Intelligenz”

00:04:54.080 –> 00:04:55.080

verwendet.

00:04:55.080 –> 00:05:00.840

Ganz vieles wird im Grunde genommen auch versucht, sozusagen einigerma├čen oder eins zu eins,

00:05:00.840 –> 00:05:06.400

m├Âglich, sogar eins zu eins, von den Strukturen her oder von den Abl├Ąufen her sozusagen zu

00:05:06.400 –> 00:05:11.240

spiegeln, wie das auch bei uns im Gehirn dargestellt ist oder was wir ├╝ber das Gehirn wissen.

00:05:11.240 –> 00:05:17.000

Und deswegen sprechen wir hier in dem Zusammenhang eben von einer k├╝nstlichen Intelligenz im

00:05:17.000 –> 00:05:20.720

Unterschied zur klassischen menschlichen Intelligenz, die wir per se kennen.

00:05:20.720 –> 00:05:26.240

Ja, und k├╝nstliche Intelligenz steht somit f├╝r maschinelle Intelligenz, die aus Daten

00:05:26.240 –> 00:05:31.240

gewonnene Informationen nutzt, um komplexe Aufgaben zu l├Âsen, die Forschung voranzutreiben

00:05:31.240 –> 00:05:35.360

und Ereignisse und menschliches Verhalten besser vorherzusagen.

00:05:35.360 –> 00:05:41.240

Und infolgedessen entstehen immer mehr intelligente Maschinen, die wie Menschen arbeiten und reagieren

00:05:41.240 –> 00:05:42.240

k├Ânnen.

00:05:42.240 –> 00:05:46.840

Und eine bahnbrechende Technologie ist das, von der wir hier sprechen, die in Kombination

00:05:46.840 –> 00:05:50.800

mit anderen Technologien unsere Welt eben zunehmend ver├Ąndert.

00:05:50.800 –> 00:05:57.000

Das war jetzt, das ist jetzt keine neue Erkenntnis, das haben wir die letzten

00:05:57.000 –> 00:06:01.600

Jahre immer wieder auch gesagt. Nur im Unterschied gab es jetzt eine

00:06:01.600 –> 00:06:07.440

Entwicklung erst vor kurzem, vor einigen Monaten, dass eben Chat GPT ein Tool,

00:06:07.440 –> 00:06:13.840

das KI gest├╝tzt ist, ja, dass das marktzug├Ąnglich gemacht wurde. Und das

00:06:13.840 –> 00:06:17.560

hat dazu gef├╝hrt, dass wir, obwohl wir im Alltag schon bewusst oder unbewusst

00:06:17.560 –> 00:06:22.800

ganz viel mit KI im Grunde genommen schon arbeiten, dass jetzt der eine oder andere

00:06:22.800 –> 00:06:27.760

realisiert hat, oh, was passiert denn da eigentlich? Das hei├čt, das, was vorher f├╝r viele nicht

00:06:27.760 –> 00:06:34.080

sichtbar war, ist nun sichtbar geworden, was dazu f├╝hrt, dass es viele, viele Diskussionen

00:06:34.080 –> 00:06:39.400

rund um die KI gibt, Gefahren, Sorgen und, und, und, was da alles angesprochen wird.

00:06:39.400 –> 00:06:45.320

Wichtig nochmal ganz, ganz, ganz stark zu unterstreichen, es ist keine neue Technologie,

00:06:45.320 –> 00:06:49.640

sondern die Technologie, an der wird schon sehr, sehr lange gearbeitet.

00:06:49.640 –> 00:06:55.440

Und das hei├čt nur ├╝ber diese Marktdurchdringung mit Chat-GPT, mit dem kostenfreien Zugang

00:06:55.440 –> 00:07:01.280

und unser Bewusstsein, das darauf gesch├Ąrft wurde, f├╝r viele gesch├Ąrft wurde, entsteht

00:07:01.280 –> 00:07:05.460

jetzt die Situation, dass pl├Âtzlich ├╝ber etwas diskutiert wird, was vorher nicht so

00:07:05.460 –> 00:07:08.360

stark in den Medien einfach anzutreffen war.

00:07:08.360 –> 00:07:10.560

Also das vielleicht erstmal so anbei.

00:07:10.560 –> 00:07:17.200

Und ja, und Chat-GPT ist ja nur ein Beispiel. Wie gesagt, KI-Tools werden in vielen, vielen

00:07:17.200 –> 00:07:23.840

Kontexten eingesetzt und auch genutzt. Und letztendlich handelt es sich hierbei um ein

00:07:23.840 –> 00:07:28.880

Tool wie auch viele andere Tools, die wir bisher kennen. Also ihr kennt das aus der

00:07:28.880 –> 00:07:33.160

t├Ąglichen Arbeit, ob das E-Mails sind, ob das irgendwelche Programme, Softwareprogramme

00:07:33.160 –> 00:07:38.240

sind, die wir nutzen. Es geht letztendlich darum, eine Effizienzsteigerung dadurch zu

00:07:38.240 –> 00:07:42.760

erzielen, schneller gewisse Arbeitsergebnisse zu liefern. Und das

00:07:42.760 –> 00:07:47.400

bahnbrechende hier an dem System ist eben dieses Deep Learning im Hintergrund.

00:07:47.400 –> 00:07:53.080

Das hei├čt, dieses Machine Learning, was hier stattfindet, dass Informationen,

00:07:53.080 –> 00:07:57.160

die eingespeist werden, sozusagen auch wieder neu zusammenerkannt und neu

00:07:57.160 –> 00:08:01.480

zusammengesetzt werden k├Ânnen. Und daraus entsteht eben nochmal eine

00:08:01.480 –> 00:08:05.320

Potenzierung der Effizienzsteigerungsm├Âglichkeiten, die wir hier

00:08:05.320 –> 00:08:11.000

haben. Und dadurch, dass unser Gehirn sehr, sehr stark linear sich alles nur

00:08:11.000 –> 00:08:15.880

vorstellt und denkt, haben wir teilweise wirklich Schwierigkeiten nachzuvollziehen,

00:08:15.880 –> 00:08:22.800

welche Potenzierung hier jetzt die n├Ąchsten Wochen, Monate, Jahre auf uns

00:08:22.800 –> 00:08:27.200

sozusagen zurollt. Und das ist nat├╝rlich immer mit zwei Seiten zu betrachten. Also

00:08:27.200 –> 00:08:30.280

auch die Sorgen sind nicht unbegr├╝ndet. Man kann jetzt hier noch mal genauer

00:08:30.280 –> 00:08:33.680

gucken, welche Sorgen gibt es denn und welche sind begr├╝ndet oder unbegr├╝ndet.

00:08:33.680 –> 00:08:37.480

Das ist mal so auf der ethischen Ebene in Anf├╝hrungsstrichen oder auch gesellschaftlichen

00:08:37.480 –> 00:08:41.780

Ebene zu diskutieren. Und die anderen Aspekte und das ist das, was wir uns heute allerdings

00:08:41.780 –> 00:08:44.840

auch noch mal genauer anschauen wollen, ist eben dieser Aspekt.

00:08:44.840 –> 00:08:48.480

Ja, was, welche, wo kann ich das alles einsetzen?

00:08:48.480 –> 00:08:52.000

Welche Auswirkungen hat das denn auch auf die Arbeitswelt und wohin entwickeln wir uns

00:08:52.000 –> 00:08:57.200

eigentlich? Da hier mal so ein bisschen Gehirn jonglieren, durchzuf├╝hren, um gemeinsam

00:08:57.200 –> 00:08:58.280

einfach mal zu gucken.

00:08:58.280 –> 00:09:03.280

Und in dem Zusammenhang m├Âchte ich gerne neben ganz vielen anderen Anwendungsfeldern, die

00:09:03.280 –> 00:09:08.280

ihr dann auch mit reinbringen k├Ânnt. Auch die Br├╝cke bauen zu dem Link, den ich f├╝r heute

00:09:08.280 –> 00:09:13.520

mitgebracht habe und auch die Br├╝cke bauen zu der gestrigen Veranstaltung, denn die gestrige

00:09:13.520 –> 00:09:21.720

Veranstaltung von Dr. Johanna Dahm mit den grandiosen Mitautoren, mit und mit Herausgebern,

00:09:21.720 –> 00:09:28.640

tollen tollen G├Ąsten wie Uwe Bingel, Julian Backhaus, Mick Knauf, Tisci, also Roland Tisci

00:09:28.640 –> 00:09:34.640

und vielen, vielen mehr, war wirklich eine Inspiration, ein Feuerwerk pur. Es ging um

00:09:34.640 –> 00:09:39.600

Entscheidungen und auch, welche Rolle eben auch Entscheidungen treffen, wie man mit Entscheidungen

00:09:39.600 –> 00:09:47.200

zum Erfolg kommt. Und ich finde, das passt wunderbar zu unserem Thema, denn ja, KI hat

00:09:47.200 –> 00:09:54.920

ja verschiedene Bereiche, in denen wir es einsetzen k├Ânnen. Und eines der Bereiche ist eben der Kontext

00:09:54.920 –> 00:09:57.640

des Buchschreibens und der Autorenschaft.

00:09:57.640 –> 00:10:00.160

Ich hatte das ja schon an einigen Stellen platziert.

00:10:00.160 –> 00:10:04.400

Ihr wisst, dass die magische Hex zur optimalen Nutzung von Chachibiti

00:10:04.400 –> 00:10:07.600

erstelle, dein eigenes Fachbuch mithilfe von KI

00:10:07.600 –> 00:10:10.960

auch genau als Pilot sozusagen entstanden ist,

00:10:10.960 –> 00:10:14.040

um Menschen, die wenig bisher mit KI zu tun hatten,

00:10:14.040 –> 00:10:18.480

einfach mal zu demonstrieren, was damit machbar ist.

00:10:18.480 –> 00:10:20.480

Nat├╝rlich kann man sich das Buch anschauen

00:10:20.480 –> 00:10:21.720

und nat├╝rlich kann man sagen,

00:10:21.720 –> 00:10:24.480

das kann ich aber doch viel besser schreiben oder Sonstiges.

00:10:24.560 –> 00:10:29.240

Aber, und das war Sinn und Zweck, einfach mal zu zeigen, was theoretisch mit dieser

00:10:29.240 –> 00:10:31.480

Effizienzsteigerung einfach auch m├Âglich ist.

00:10:31.480 –> 00:10:36.400

Denn dieses Buch ist in diesem Piloten sozusagen, der hier gestartet wurde, um das zu demonstrieren,

00:10:36.400 –> 00:10:39.080

innerhalb von 24 Stunden entstanden.

00:10:39.080 –> 00:10:44.480

Und ich finde, das ist ein Wow-Effekt, weil das zeigt einfach, was m├Âglich ist.

00:10:44.480 –> 00:10:50.440

Gleichzeitig, energetisiert gestern von der Veranstaltung, habe ich dann nochmal heute

00:10:50.440 –> 00:10:54.960

Morgen, ich bin relativ fr├╝h aufgestanden, nachdem ich gestern wirklich schon relativ

00:10:54.960 –> 00:11:00.880

schnell tot umgefallen bin nach der Veranstaltung, weil ich m├╝de war, habe ich dann doch angefangen,

00:11:00.880 –> 00:11:02.080

noch mal zu reflektieren.

00:11:02.080 –> 00:11:04.440

Und mir ist eines aufgefallen bei den Gespr├Ąchen.

00:11:04.440 –> 00:11:11.280

Obwohl da so tolle Menschen mit dabei waren, die dann auf der einen Seite eben aufzeigen,

00:11:11.280 –> 00:11:15.080

wie wichtig eben auch diese Entscheidungen sind, um in Richtung Erfolg, was auch immer

00:11:15.080 –> 00:11:17.320

das f├╝r euch bedeutet, zu laufen.

00:11:17.320 –> 00:11:19.200

Ja, und was es eben braucht.

00:11:19.200 –> 00:11:24.200

Und gleichzeitig tappen wir alle immer wieder in die gleiche Falle.

00:11:24.200 –> 00:11:26.200

Und da nehme ich mich selbst nicht aus.

00:11:26.200 –> 00:11:33.200

Und zwar nehme ich die Falle, zu sagen, ja, als n├Ąchstes steht das und das an, aber das hat jetzt noch mal ein bisschen Zeit.

00:11:33.200 –> 00:11:40.200

Und interessanterweise haben mich gestern ganz viele Menschen angesprochen, ob das um Mentorings ging, ob das um Buchprojekte ging usw.

00:11:40.200 –> 00:11:42.200

Und die Buchprojekte standen im Vordergrund.

00:11:42.200 –> 00:11:48.200

Das hei├čt, viele Autoren, die da mitgemacht haben, haben gesagt, ja, als n├Ąchstes wei├č ich, es steht jetzt das n├Ąchste Buchprojekt an.

00:11:48.200 –> 00:11:50.560

Ich gucke mal, wann ich damit starte.

00:11:50.560 –> 00:11:55.120

Ich schaue mal heute noch nicht, irgendwann morgen, in Anf├╝hrungsstrichen.

00:11:55.120 –> 00:12:00.040

Und da sind wir n├Ąmlich in dieser menschlichen Falle mit dem im Kontext der Entscheidungen.

00:12:00.040 –> 00:12:05.520

Und gerade im Kontext von KI hat das jetzt eine massive Auswirkung und auf die m├Âchte

00:12:05.520 –> 00:12:11.200

ich noch mal sensibilisieren, nicht aufzuschieben, sondern wirklich auch in die Umsetzung zu

00:12:11.200 –> 00:12:13.800

gehen, Entscheidungen zu treffen, loszulaufen.

00:12:13.800 –> 00:12:17.480

Denn in dem Moment, wo ich loslaufe, kommt auch der Rest.

00:12:17.480 –> 00:12:21.680

Nur wenn ich gar nicht erst starte, sondern immer wieder nur aufschiebe, dann passiert

00:12:21.680 –> 00:12:22.680

eben nicht so viel.

00:12:22.680 –> 00:12:26.680

Und die Frage habe ich gestern auch schon an jemanden formuliert.

00:12:26.680 –> 00:12:31.600

Die Frage ist nicht, welchen Preis zahle ich daf├╝r, sondern auch mal die Frage zu

00:12:31.600 –> 00:12:37.360

stellen, welchen Preis zahle ich daf├╝r, nicht angetreten zu sein oder nicht gestartet zu

00:12:37.360 –> 00:12:38.360

sein.

00:12:38.360 –> 00:12:41.920

Und die Frage habe ich in einem Kontext sehr pers├Ânlich gestern gestellt, mit in einem

00:12:41.920 –> 00:12:47.800

pers├Ânlichen Gespr├Ąch, wo jemand seit zwei Jahren etwas ├╝berlegt und noch nicht gestartet ist. Also

00:12:47.800 –> 00:12:52.640

es war, ich m├Âchte jetzt hier keinen Namen nennen, aber das war wirklich sehr konkret an der Stelle.

00:12:52.640 –> 00:12:57.760

Und wenn wir zur├╝ckblicken, es sind zwei Jahre vergangen und in der Zwischenzeit ist viel passiert,

00:12:57.760 –> 00:13:03.640

aber das, was diese Person urspr├╝nglich vorhatte, ist in keinster Weise an der Stelle vorangeschritten.

00:13:03.640 –> 00:13:08.400

Und aus diesem Grund habe ich euch jetzt diesen Link heute auch noch mal mitgebracht und m├Âchte

00:13:08.400 –> 00:13:13.800

das hier auch nochmal platzieren, gerade im Kontext der KI, denn das ist eines der Anwendungsbereiche,

00:13:13.800 –> 00:13:20.280

die wir hier haben, mit denen ich auch tagt├Ąglich auch arbeite. Und zwar ist das die Membership

00:13:20.280 –> 00:13:26.960

Bestselling Authors Club. Und Bestselling Authors Club, also da geht es im Grunde genommen f├╝r alle,

00:13:26.960 –> 00:13:32.880

die mit dem Gedanken spielen, ein Buch zu publizieren, ist das die Rundum-Mitgliedschaft

00:13:32.880 –> 00:13:37.720

f├╝r alle, die bereit sind, die extra Meile zu gehen. Das hei├čt, es ist eine Schritt-f├╝r-Schritt-Begleitung

00:13:37.720 –> 00:13:43.580

von der Idee bis zur Implementierung, sowohl f├╝r E-Book, Taschenbuch, Hardcover, H├Ârbuch,

00:13:43.580 –> 00:13:48.840

was auch immer man da ver├Âffentlichen m├Âchte, inklusive Marketingstrategien und Ma├čnahmen,

00:13:48.840 –> 00:13:54.400

sowohl in der Vorbereitung als auch im Hinblick auf den Bestseller-Status und dann auch das

00:13:54.400 –> 00:13:59.720

Marketing danach, denn das vergessen h├Ąufig ganz viele, dass das nicht fertig ist, sozusagen

00:13:59.720 –> 00:14:05.160

in Anf├╝hrungsstrichen, mit der Publikation, sondern danach erst richtig losgeht, f├╝r

00:14:05.160 –> 00:14:11.400

Einsatz und Vertrieb mit maximalen Mehrwert. Und on top gibt es jetzt noch etwas, was n├Ąmlich

00:14:11.400 –> 00:14:16.880

hinzukommt und das m├Âchte ich heute sozusagen mit ganz gro├čer Freude auch an der Stelle verk├╝nden

00:14:16.880 –> 00:14:23.120

und bewerben, n├Ąmlich was neu ist, sind die KI-gest├╝tzten Tools. Das hei├čt, es geht nicht

00:14:23.120 –> 00:14:28.320

nur darum, wie schreibe ich, was ist marketingm├Ą├čig wichtig und so weiter, sondern auch die

00:14:28.320 –> 00:14:35.560

entsprechenden KI-gest├╝tzten Tools aufzuzeigen, die wir im deutschsprachigen Markt f├╝r uns daf├╝r auch

00:14:35.560 –> 00:14:42.600

nutzen k├Ânnen, um bei der Umsetzung des Vorhabens eine tausendfache Beschleunigung zu erzielen. Und

00:14:42.600 –> 00:14:49.920

insofern, ja, schaut’s euch an. Wer wirklich mit dem Gedanken spielt, nutzt die Gelegenheit. Es ist

00:14:49.920 –> 00:14:54.360

f├╝r ein Jahr und es ist nicht nur irgendwie online und irgendwelche Kurse, die ihr euch oder Videos,

00:14:54.360 –> 00:14:59.720

die ihr euch anschauen k├Ânnt, sondern eben auch mit einer regelm├Ą├čigen monatlichen live online

00:14:59.720 –> 00:15:05.040

Begleitung, wo und das finde ich total wichtig, damit man eben hier dann auch die M├Âglichkeit hat,

00:15:05.040 –> 00:15:09.920

Fragen zu formulieren, damit man beim n├Ąchsten Mal auch mal wieder gefragt wird, wo stehst du

00:15:09.920 –> 00:15:15.680

denn eigentlich? Bist du drei Schritte weitergekommen oder ja, oder ist es wieder nur beim

00:15:15.680 –> 00:15:21.960

Vorhaben geblieben? Und ich glaube gerade diese diese Accountability, dieses Nachhalten und so

00:15:21.960 –> 00:15:26.360

Das ist auch etwas, was wir brauchen, was uns eben an dieser Stelle voranbringt.

00:15:26.360 –> 00:15:31.080

Deswegen m├Âchte ich das als erstes Beispiel hier an der Stelle mit einbringen.

00:15:31.080 –> 00:15:37.120

K├╝nstliche Intelligenz, einer der Bereiche, die wir tagt├Ąglich nutzen und einsetzen,

00:15:37.120 –> 00:15:41.640

ist hier an der Stelle eben im Kontext von Buchautorenschaften.

00:15:41.640 –> 00:15:46.280

Und wie kann ich eben diese Tools auch letztendlich nutzen und einsetzen?

00:15:46.280 –> 00:15:47.280

Was kann ich damit machen?

00:15:47.280 –> 00:15:50.520

Und das ist weit mehr als nur den Text zu schreiben oder so was, das vielleicht nochmal

00:15:50.520 –> 00:15:56.280

by the way erw├Ąhnt, was die Tools hier eben an M├Âglichkeiten auftun, die ich nutzen kann,

00:15:56.280 –> 00:16:02.640

um viel effektiver in eine Sichtbarkeit zu kommen, das Marketing entsprechend zu gestalten.

00:16:02.640 –> 00:16:08.840

Ja, angefangen von Bildern, die sich gestalten lassen, ├╝ber textliche Abschnitte, ├╝ber

00:16:08.840 –> 00:16:11.800

Postings, ├╝ber Social Media Marketing und so weiter.

00:16:11.800 –> 00:16:17.260

Also alles in der Bandbreite, was ich dann nicht nur im Kontext der Buchautorenschaft

00:16:17.260 –> 00:16:22.780

hier f├╝r mich nutzen kann, sondern auch alles, was mit Marketing in anderem Kontext f├╝r

00:16:22.780 –> 00:16:25.700

mein Unternehmen und f├╝r meine Unternehmung zu tun haben.

00:16:25.700 –> 00:16:32.140

So, das ist mal ein Beispiel, wo die KI heute eingesetzt hat und uns in unseren Vorhaben

00:16:32.140 –> 00:16:40.180

und in unserer Geschwindigkeit massiv Potenziale sichert, entfalten l├Ąsst, tausendfach beschleunigen

00:16:40.180 –> 00:16:41.180

l├Ąsst.

00:16:41.180 –> 00:16:44.620

Nat├╝rlich d├╝rfen wir auf der einen oder anderen Seite auch die Entschleunigung nicht

00:16:44.620 –> 00:16:45.620

vergessen.

00:16:45.620 –> 00:16:50.740

gerne unterstreichen, denn wenn ich aber, wenn ich die M├Âglichkeit habe zu beschleunigen,

00:16:50.740 –> 00:16:55.260

dann habe ich ja auch an der anderen Stelle die M├Âglichkeit, wieder in die Entschleunigung,

00:16:55.260 –> 00:16:59.140

also durch den Freiraum, der mir geschaffen wurde, auch hier wieder zu nutzen. Und das,

00:16:59.140 –> 00:17:04.340

auch das finde ich eine gro├čartige M├Âglichkeit. Ja, das ist mal so ein Beispiel. Es gibt noch

00:17:04.340 –> 00:17:07.780

viel mehr. Ich kann noch viel mehr Beispiele reinbringen, aber ich m├Âchte ganz gerne jetzt

00:17:07.780 –> 00:17:15.060

wirklich gucken, dass wir aus diesem Monolog-Modus rauskommen und gemeinsam hier einsteigen in einen

00:17:15.060 –> 00:17:23.280

gemeinsamen Austausch, in eine gemeinsame Reflexion. Was sind denn so die, ja, in der Arbeitswelt,

00:17:23.280 –> 00:17:27.320

die Bereiche, wo ihr vielleicht heute auch schon KI nutzt, wo ihr wisst, dass wir KI

00:17:27.320 –> 00:17:32.080

einsetzen, im Hintergrund KI l├Ąuft, dass wir da darauf noch mal sensibilisieren k├Ânnen,

00:17:32.080 –> 00:17:36.280

um dann auch noch mal gemeinsam zu schauen und zu ├╝berlegen, was sind das denn eigentlich

00:17:36.280 –> 00:17:42.000

f├╝r Auswirkungen, die das Ganze jetzt auf unsere Arbeitswelt haben wird. Ja, und damit

00:17:42.000 –> 00:17:46.000

begr├╝├če ich ganz herzlich Marc. Einen wundersch├Ânen guten Morgen. Ich hoffe, du bist fit.

00:17:46.000 –> 00:17:51.640

Guten Morgen. Ja, ich bin fit. Ich hatte das gro├če Gl├╝ck, auch auf dieser Veranstaltung zu sein.

00:17:51.640 –> 00:17:56.800

Ich hatte auch nur vier Stunden Schlaf, aber es war fantastisch. Und sehr, sehr viele Themen,

00:17:56.800 –> 00:18:02.040

das k├Ânnen wir auch sagen. Ich habe Yasemin dann nat├╝rlich gesehen und habe mir zugelegt. Und ganz,

00:18:02.040 –> 00:18:05.600

ganz viele Themen, die wir hier besprochen haben, sind auch aufgegriffen worden. Also wir sind nicht

00:18:05.600 –> 00:18:09.000

die einzigen, die sich mit diesen Themen besch├Ąftigen. Bevor ich jetzt konkret zum

00:18:09.000 –> 00:18:12.160

Thema was sagen m├Âchte, m├Âchte ich eine Erkenntnis mit euch teilen, die ist wichtig,

00:18:12.160 –> 00:18:15.880

bevor ich zu meinem Statement komme. Mir ist gestern auch wieder bewusst geworden,

00:18:15.880 –> 00:18:20.120

wir beziehen ja Informationen. In Unternehmen beziehen wir Informationen und auch von der

00:18:20.120 –> 00:18:24.760

Presse beziehen wir Informationen. Und was ich immer wieder feststelle oder immer wieder selber

00:18:24.760 –> 00:18:30.440

anwenden muss, dass wir pr├╝fen, wer gibt diese Informationen raus, wo ist der Wahrheitsgehalt

00:18:30.440 –> 00:18:35.320

dieser Information, welchen Zweck hat der, der die Informationen rausgibt, geht es nur in den

00:18:35.320 –> 00:18:38.880

Mehrwert? Und dass wir uns auch immer wieder bewusst machen, und da komme ich gleich mit einem

00:18:38.880 –> 00:18:42.440

Beispiel dazu, dass diese Informationen, wenn die von der Presse kommen, das sind

00:18:42.440 –> 00:18:46.900

keine schlechten Menschen, aber negative Schlagzeilen verdienen wir Geld. Also die

00:18:46.900 –> 00:18:50.520

Presse informiert uns, aber um die Zeitung verkaufen zu k├Ânnen, m├╝ssen wir uns

00:18:50.520 –> 00:18:53.480

aufschrecken. Und das kann ich euch erkl├Ąren in einem kleinen Beispiel. Wenn

00:18:53.480 –> 00:18:57.360

wir uns mit dem Thema KI besch├Ąftigen, dann habe ich jetzt, finde ich im

00:18:57.360 –> 00:19:01.040

Internet mehrere M├Âglichkeiten. Die erste M├Âglichkeit, die einem sofort ins

00:19:01.040 –> 00:19:05.680

Auge schie├čt, sind Achtung, 800 Millionen Jobs werden von der KI betroffen sein.

00:19:05.680 –> 00:19:12.040

Ups, denke ich, 800 Millionen Jobs. Oh man, das ist aber eine ganze Menge. Da wird erstmal die Angst gesch├╝rt.

00:19:12.040 –> 00:19:18.680

Oder, Mann, Mann, Mann, was kommt da auf uns zu? Wenn man aber weiter recherchiert, findet man auch andere Nachrichten, die dann stehen.

00:19:18.680 –> 00:19:28.600

80 Prozent der Arbeitnehmer werden dann unterst├╝tzt oder sind in Berufen t├Ątigt, in denen mindestens eine Aufgabe durch die KI schneller erledigt werden k├Ânne.

00:19:28.600 –> 00:19:33.400

Wenn ich dieses beiden Texte gegen├╝ber stelle, zum einen kann eine Arbeit schnell erledigt werden

00:19:33.400 –> 00:19:39.680

oder zum anderen sind 800 Millionen Jobs betroffen, erzeugt das komplett unterschiedliche Gef├╝hle.

00:19:39.680 –> 00:19:44.480

Das erst mal als Einstieg. Und bevor ich auch darauf eingehe, welche Berufe wegfallen,

00:19:44.480 –> 00:19:49.320

ist mir auch ganz, ganz wichtig, da nochmal anzufangen, damit wir haben auch gestern,

00:19:49.320 –> 00:19:53.680

haben wir einen fantastischen Vortrag geh├Ârt. Ich hoffe, der Mann kommt einmal zum Autoren-Fr├╝hst├╝ck

00:19:53.680 –> 00:20:01.200

von Mick Nauf, ein deutscher Wirtschaftsjournalist, der das Thema B├Ârse, das Thema Finanzen so

00:20:01.200 –> 00:20:03.760

fantastisch aufgearbeitet hat.

00:20:03.760 –> 00:20:07.920

Und wenn jemand zu mir gesagt h├Ątte, Marc, hast du nicht Lust, morgen Abend zu mir zu

00:20:07.920 –> 00:20:12.280

einer Veranstaltung zu gehen, da geht es um Aktien oder um Finanzen und da spricht jemand

00:20:12.280 –> 00:20:14.640

von einer Bank, dann h├Ątte ich gesagt, bist du bescheuert?

00:20:14.640 –> 00:20:15.840

Nee, also bei aller Liebe nicht.

00:20:15.840 –> 00:20:18.640

Ich sitze dann lieber drau├čen auf meiner Terrasse und gucke mir B├Ąume an.

00:20:18.640 –> 00:20:24.560

Und dieser Mensch hat das Thema, dieser Mignauf hat das Thema so aufbearbeitet mit einer Wahnsinnsbegeisterung,

00:20:24.560 –> 00:20:28.080

mit einer Simplifizierung, wie die M├Ąrkte verstehen.

00:20:28.080 –> 00:20:30.760

Einfach nur, und da muss man auch nicht studiert haben, sondern,

00:20:30.760 –> 00:20:33.760

dass wir einfach ab und zu unser normales Gehirn einschalten

00:20:33.760 –> 00:20:36.960

und wir da sehr, sehr viele Antworten bekommen.

00:20:36.960 –> 00:20:39.960

Und jetzt, was ich angedeutet habe, dann bin ich auch fertig.

00:20:39.960 –> 00:20:42.560

Was macht KI, bevor wir die Berufe aufz├Ąhlen?

00:20:42.560 –> 00:20:45.360

KI sammelt Information,

00:20:45.360 –> 00:20:52.560

KI wird Informationen aufbereiten und KI wird auch Basisinformationen weiterleiten.

00:20:52.560 –> 00:20:56.920

Und wenn man das erstmal so stehen l├Ąsst, dann f├Ąllt einem n├Ąmlich ganz automatisch ein,

00:20:56.920 –> 00:21:02.080

welche Berufe davon betroffen werden k├Ânnen. Also Informationen sammeln, aufbereiten und weitergeben.

00:21:02.080 –> 00:21:06.840

Und auf die Berufe gehe ich jetzt erstmal nicht ein und freue mich, dass J├╝rgen auch mit dazu gekommen ist.

00:21:06.840 –> 00:21:10.320

Ja, gro├čartig. Vielen, vielen lieben Dank.

00:21:10.320 –> 00:21:14.840

Und ich habe den Kontakt direkt heute hergestellt, jetzt ├╝ber LinkedIn.

00:21:14.840 –> 00:21:18.360

Und er hat ja im Prinzip gestern schon zugesagt, zumindest m├╝ndlich.

00:21:18.360 –> 00:21:26.040

Jetzt schauen wir mal, dass wir den Kontakt herstellen und dass wir ihn zu einem Autoren-Fr├╝hst├╝ck oder Experten-Talk oder was auch immer dann einladen.

00:21:26.040 –> 00:21:37.880

Das hei├čt, wir haben nat├╝rlich gestern gleich mitgedacht und geschaut, dass wir die verschiedene Kontakte, die hier gekn├╝pft werden, nat├╝rlich auch hier f├╝r die Community einfach nutzen und zug├Ąnglich machen.

00:21:37.880 –> 00:21:40.480

Und insofern bin ich gespannt. Dr├╝cken wir einfach mal die Daumen.

00:21:40.480 –> 00:21:43.360

J├╝rgen, einen wundersch├Ânen guten Morgen. Was sagst du denn zu dem Thema?

00:21:43.360 –> 00:21:50.720

Einen wundersch├Ânen guten Morgen, liebe Yasemin. Guten Morgen, lieber Marc und alle im Raum.

00:21:50.720 –> 00:21:54.440

Ja, ich hoffe, ich kriege das noch alles zusammen.

00:21:54.440 –> 00:22:00.400

Du hast so viele Trigger Points bei mir gesetzt durch deine Vorrede und auch du,

00:22:00.400 –> 00:22:04.240

lieber Marc, mit deiner Ann├Ąherung an das Thema ├╝ber die KI.

00:22:04.240 –> 00:22:11.840

Ich werde mit meinem Statement mich von der anderen Seite n├Ąhern, n├Ąmlich von der Seite

00:22:11.840 –> 00:22:18.520

der Intelligenz. Und ich n├Ąhere mich oder platziere diesen Beitrag “Wof├╝r?”, “Frage

00:22:18.520 –> 00:22:26.440

wof├╝r?” im Sinne der Reduzierung der Komplexit├Ąt. Und das war auch so ein Trigger, liebe Yasemin,

00:22:26.440 –> 00:22:33.600

von dir, dass ich sage, ja, es ist ein, es ist in Anf├╝hrungsstrichen menschlich, dass man sehr

00:22:33.600 –> 00:22:41.640

oft sagt, auch in der Projektarbeit insbesondere, da ist jetzt nicht die Zeit dazu oder da ist noch

00:22:41.640 –> 00:22:48.360

nicht die Zeit dazu gekommen. Ich habe die Erfahrung gemacht, dass ein wesentlicher Einflussfaktor

00:22:48.360 –> 00:22:54.200

daf├╝r, dieses zu sagen, die nicht ├╝berschaubare Komplexit├Ąt ist.

00:22:54.200 –> 00:22:59.880

Und deswegen jetzt hoffentlich sichtbar den Gedankenfluss von mir.

00:22:59.880 –> 00:23:04.560

Wir sind uns dar├╝ber im Garen, dass das ein Riesenthema ist,

00:23:04.560 –> 00:23:08.480

dass, ich darf jetzt diesen Wunsch mal ├Ąu├čern, eigentlich ein

00:23:08.480 –> 00:23:12.200

Dachthema f├╝r mich w├Ąre, weil es immens ist, auch von den

00:23:12.200 –> 00:23:14.200

Auswirkungen und von der Komplexit├Ąt.

00:23:14.200 –> 00:23:22.060

Aber ich m├Âchte in dem Sinne die Komplexit├Ąt vielleicht von vornherein etwas reduzieren,

00:23:22.060 –> 00:23:28.780

an dem ich euch an ein anderes Dachthema erinnere, das wir hatten. Und zwar, wie so oft, Bildung.

00:23:28.780 –> 00:23:38.140

Ihr k├Ânnt euch erinnern, da sprachen wir ├╝ber Lernen, ├╝ber Sozialisation, ├╝ber Wissen,

00:23:38.140 –> 00:23:48.060

├╝ber Intelligenz und Reflexion. Und wir waren im Verbund dessen zu dem Ergebnis gekommen,

00:23:48.060 –> 00:23:53.620

dass es eine allumfassende, allgemeing├╝ltige Definition der Intelligenz nicht gibt. Warum?

00:23:53.620 –> 00:24:01.620

Ich h├Ątte zwar eine, aber das lasse ich jetzt mal hinten anstehen. Warum? Weil es n├Ąmlich die

00:24:01.620 –> 00:24:11.260

Intelligenz nicht gibt. Wir waren ├╝berein gekommen, vielleicht erinnert ihr euch, meistens identifizieren

00:24:11.260 –> 00:24:19.100

wir oder sehen wir Intelligenz als mathematische logische Kompetenz. Es gibt aber auch eine

00:24:19.100 –> 00:24:26.340

emotionale Intelligenz, die Leute bef├Ąhigen zum Beispiel Pflegeberufe zu machen oder personelle

00:24:26.340 –> 00:24:38.180

Intelligenz, die Personen im weiteren Verlauf exponiert bef├Ąhigen, zum Beispiel F├╝hrungspositionen

00:24:38.180 –> 00:24:44.340

einzunehmen oder kinesthetische, die pr├Ądestinierter Sportler oder T├Ąnzer werden und, und, und.

00:24:44.340 –> 00:24:54.540

Also kann man noch etliches beif├╝gen. Aber das Wichtige ist, es gibt mehrere Arten von

00:24:54.540 –> 00:25:02.340

Intelligenzen. Und meine Frage ist jetzt, wenn ich mir das Thema betrachte, welchen Einfluss hat die

00:25:02.340 –> 00:25:11.820

KI, die k├╝nstliche Intelligenz, auf die Arbeitswelt? Welche Intelligenz kann denn ├╝berhaupt oder ist

00:25:11.820 –> 00:25:23.700

vornehmlich einflussnehmend auf das Arbeitsumfeld, das wir haben? Mal ein ganz oder ein pers├Ânlicher,

00:25:23.700 –> 00:25:29.780

eine pers├Ânliche Meinung von mir. Ich sehe die KI durchaus im mathematisch-logischen Kontext

00:25:29.780 –> 00:25:36.620

als platzierbar und wahrscheinlich im Hauptaufmarschfeld der n├Ąchsten Jahre. Aber

00:25:36.620 –> 00:25:45.540

im kinesthetischen, das mag vielleicht l├Ącherlich klingen, Sportler oder Artisten auf der B├╝hne,

00:25:45.540 –> 00:25:48.540

Das wird es nicht geben.

00:25:48.540 –> 00:25:53.540

Und insofern, lieber Mark, ist genau das, und du sprachst mir aus der

00:25:53.540 –> 00:25:58.540

Seele, genau dieses dem unreflektierten von vornherein mal

00:25:58.540 –> 00:26:03.540

mit einem Hype-Ausrufzeichen versehenden Aussagen,

00:26:03.540 –> 00:26:06.540

das wird die ganze Arbeitswelt ver├Ąndern.

00:26:06.540 –> 00:26:11.540

No way, das behaupte ich jetzt mal nicht.

00:26:11.540 –> 00:26:18.420

Und meine Begr├╝ndung daf├╝r hoffe ich eben gegeben zu haben, weil Intelligenz unter ganz

00:26:18.420 –> 00:26:29.380

verschiedenen Facetten zu sehen ist. Und in Bezug auf die Ausgestaltung und die Entwicklung in der

00:26:29.380 –> 00:26:39.020

Zeit f├╝r die KI, da habe ich auch zum Teil sicherlich etwas diametrale Meinungen dazu,

00:26:39.020 –> 00:26:44.460

Aber das m├Âchte ich jetzt erst mal hinten anstellen, ob wir ├╝berhaupt zu diesem Thema kommen.

00:26:44.460 –> 00:26:48.860

Also das mein erster Input zu diesem Thema.

00:26:48.860 –> 00:26:58.580

Reduzieren auf das, was ├╝berhaupt m├Âglich ist und aus heutiger Sicht als wahrscheinlich erachtet werden.

00:26:58.580 –> 00:27:00.580

Ich glaube, das hilft. Vielen Dank.

00:27:00.580 –> 00:27:06.020

Ja, vielen, vielen lieben Dank und lass mich hier gerne noch mal kurz nachhaken,

00:27:06.020 –> 00:27:13.700

um auch sicherzustellen, dass wir dich richtig verstanden haben. Was genau in der Arbeitswelt

00:27:13.700 –> 00:27:18.980

ver├Ąndert sich denn aus deiner Sicht nicht durch die KI? Vielleicht kannst du hier ein paar ganz

00:27:18.980 –> 00:27:27.220

konkrete Beispiele machen. Also, liebe Yasemin, ich habe sehr viel dar├╝ber gelesen, aber ich

00:27:27.220 –> 00:27:35.780

schwinge mich nicht auf, mir das Pr├Ądikat Experte da zuordnen zu wollen. Aber ein Ansatzpunkt f├╝r

00:27:35.780 –> 00:27:41.940

die gedankliche Auseinandersetzung f├╝r mich, du merkst, ich versuche mich etwas zur├╝ckzuziehen,

00:27:41.940 –> 00:27:54.440

ist die Klassifizierung nach Routine, wo ich durchaus eine, und jetzt bitte an meine vorher

00:27:54.440 –> 00:28:07.400

Ausf├╝hrungen. Eine mathematisch logisch basierte KI wird sicherlich bei vielen Routinearbeiten eine

00:28:07.400 –> 00:28:12.920

Unterst├╝tzung, lieber Marc, ja schon mal Unterscheidung zwischen Unterst├╝tzung und

00:28:12.920 –> 00:28:22.680

Ersatz liefern k├Ânnen. Aber Routine hat zwei Aspekte. Es gibt eine geistige Routine und es

00:28:22.680 –> 00:28:27.960

Es gibt eine k├Ârperliche Routine, wie zum Beispiel Z├Ąhneputzen jeden Tag.

00:28:27.960 –> 00:28:40.000

Da tut sich f├╝r mich eigentlich schon mal die erste Verschlankung der Komplexit├Ąt auf,

00:28:40.000 –> 00:28:49.560

indem ich sage, es werden ganz bestimmte geistige Routinen ersetzt werden k├Ânnen, wie zum Beispiel,

00:28:49.560 –> 00:28:52.200

was wir im Moment sehen, Daten sammeln.

00:28:52.200 –> 00:28:57.000

Ich habe im famili├Ąren Umkreis ein sehr gutes Beispiel,

00:28:57.000 –> 00:29:00.040

ich will es nicht zu lang werden lassen, weil ich habe gesehen,

00:29:00.040 –> 00:29:03.440

leider ist jetzt noch der Zug gekommen, aber der ist Partner in

00:29:03.440 –> 00:29:09.040

der Steuerkanzlei und das Gleiche gilt f├╝r Rechtsanw├Ąlte.

00:29:09.040 –> 00:29:14.280

Die Kernarbeit, um ├╝berhaupt zu einer individuellen Entscheidung zu

00:29:14.280 –> 00:29:17.600

kommen, ist das jetzt ein Steuervergehen, ja oder nein,

00:29:17.600 –> 00:29:22.800

Oder ist das ein Verbrechen oder eine Ordnungswidrigkeit und und und geht eine

00:29:22.800 –> 00:29:25.400

immense Datensammlung vorher.

00:29:25.400 –> 00:29:33.560

Und da sehe ich ganz wesentliche und jetzt mit Fragezeichen versehen

00:29:33.560 –> 00:29:39.720

Ersatzpotenzial oder Erg├Ąnzungspotenzial.

00:29:39.720 –> 00:29:41.720

Das w├Ąre f├╝r mich ├╝berhaupt ein eigenes Thema.

00:29:41.720 –> 00:29:43.560

Aber das ist f├╝r mich ein Punkt.

00:29:43.840 –> 00:29:51.640

Und in Summe nochmal ganz klar, k├Ârperliche Routinen scheiden f├╝r mich insofern aus,

00:29:51.640 –> 00:29:54.800

obwohl ich k├Ânnte jetzt ein Beispiel bringen, aber das schenke ich mir jetzt.

00:29:54.800 –> 00:29:57.360

Die gibt’s auch schon von den ├ťberlegungen her.

00:29:57.360 –> 00:30:00.680

Ich hoffe, ich habe dir deine Frage damit beantwortet.

00:30:00.680 –> 00:30:03.360

Ja, vielen, vielen lieben Dank.

00:30:03.360 –> 00:30:07.920

Und und da denke ich, bin ich jetzt mal total gespannt,

00:30:07.920 –> 00:30:11.520

auch was gleich nach Layla auch Marc vielleicht noch mit anschlie├čen mag.

00:30:12.160 –> 00:30:18.480

Auch hier d├╝rfen wir, finde ich, achtsam damit umgehen, dass wir eben nicht in entweder-oder

00:30:18.480 –> 00:30:24.960

denken, sondern wenn wir gerade diese Begriffe nochmal aufgreifen, Ersatzpotenzial oder Erg├Ąnzungspotenzial,

00:30:24.960 –> 00:30:27.760

dann haben wir ja Kettenreaktionen, die ausgel├Âst werden.

00:30:27.760 –> 00:30:32.840

Das hei├čt, in dem Moment, wo ich es als, sagen wir mal, mindestens Erg├Ąnzungspotenzial

00:30:32.840 –> 00:30:38.600

einsetze, ergibt sich ja daraus etwas, n├Ąmlich Folgendes, und das beobachten wir heute schon

00:30:38.600 –> 00:30:42.160

auch auf dem Arbeitsmarkt. Also es ist schon gestartet, das ist jetzt nichts Neues.

00:30:42.160 –> 00:30:46.480

Das in dem Moment, wo ich, und das war ja auch vorher schon so, nicht nur mit KI,

00:30:46.480 –> 00:30:50.320

sondern auch schon mit anderen Tools, in dem Moment, wo ich die M├Âglichkeit habe,

00:30:50.320 –> 00:30:56.720

das Potenzial zu erg├Ąnzen des Einzelnen, habe ich ja eine eine Wirkung, n├Ąmlich

00:30:56.720 –> 00:31:00.560

zum Beispiel, dass das Unternehmen sich ├╝berlegt, na ja gut, dann brauche ich

00:31:00.560 –> 00:31:04.560

aber in Zukunft vielleicht nicht mehr 100 Mitarbeiter, sondern nur noch 50

00:31:04.560 –> 00:31:10.880

Mitarbeiter, die dann die restliche Arbeit erledigen, weil dadurch, dass hier ein Erg├Ąnzungspotenzial

00:31:10.880 –> 00:31:17.920

gehoben wird sozusagen und damit kommen wir in der Kettenreaktion betrachtet, kommen wir

00:31:17.920 –> 00:31:23.280

auch in ein Ersatzpotenzial rein, was sich nicht ausweichen l├Ąsst.

00:31:23.280 –> 00:31:28.920

Allerdings, um dann eben jetzt auch wieder diese Negativemotionen rauszunehmen, gleichzeitig,

00:31:28.920 –> 00:31:34.200

auch wenn wir historisch betrachtet draufschauen, ist es ja nicht so, dass dann es sind zwar

00:31:34.200 –> 00:31:38.200

Es verschieben sich zwar Aufgaben, es verschieben sich Jobs und so weiter,

00:31:38.200 –> 00:31:42.200

oder wonach die Nachfrage auf dem Markt entsprechend dann da ist.

00:31:42.200 –> 00:31:48.200

Das bedeutet aber jetzt nicht unbedingt, dass das in der Kettenreaktion eine Massenarbeitslosigkeit

00:31:48.200 –> 00:31:51.200

oder sonst irgendwas ausl├Âsen muss. Und hier d├╝rfen wir dann gerne nochmal diskutieren,

00:31:51.200 –> 00:31:54.200

was dann die Auswirkungen vielleicht auch sein werden.

00:31:54.200 –> 00:31:58.200

Aber zumindest, dass es halt eben in Zukunft andere Aufgaben geben wird,

00:31:58.200 –> 00:32:01.200

andere Schwerpunkte geben wird. Und es wird auch damit einhergehen,

00:32:01.200 –> 00:32:05.520

hergehen, dass Unternehmen tats├Ąchlich, weil sie eben hier die M├Âglichkeit haben,

00:32:05.520 –> 00:32:10.260

auf weniger Mitarbeiter zu reduzieren, und das passiert heute auch schon, also dass tausende

00:32:10.260 –> 00:32:15.840

Mitarbeiter eben auch entlassen werden, weil zum Beispiel Banken entdeckt haben, naja,

00:32:15.840 –> 00:32:21.480

wir k├Ânnen ja einen Bankautomaten einsetzen, wir brauchen keinen Schalter, wir reduzieren

00:32:21.480 –> 00:32:24.720

durch das Online-Banking, und da sind wir jetzt noch nicht mal bei KI, sondern ganz

00:32:24.720 –> 00:32:29.280

allgemeine Automatisierungen, die in der Vergangenheit stattgefunden haben, die dazu f├╝hren, dass

00:32:29.280 –> 00:32:35.040

eben die Masse an Menschen in dieser T├Ątigkeit, in dieser speziellen T├Ątigkeit, die es vorher

00:32:35.040 –> 00:32:38.600

gegeben hat, so nicht mehr braucht. Daf├╝r braucht es die aber vielleicht an anderer

00:32:38.600 –> 00:32:42.040

Stelle und das ist ja dann auch nochmal spannend darauf zu gucken. J├╝rgen, du wolltest noch

00:32:42.040 –> 00:32:43.040

was erg├Ąnzen dazu.

00:32:43.040 –> 00:32:51.800

Ich danke dir, dass ich da, sorry, liebe Layla, dass ich da nochmal Bezug, weil du hast einen

00:32:51.800 –> 00:32:57.480

zweiten Punkt, den ich vorhin benannt habe, das spar ich mir jetzt, vorweggenommen. Andere

00:32:57.480 –> 00:33:04.920

die vielleicht oder die dazu angetan sind, die Komplexit├Ąt dieses Themas zu reduzieren. Und der

00:33:04.920 –> 00:33:10.640

Bankautomat ist zum Beispiel so eine Position, ist ja mein spezifischer Beritt, das Banking,

00:33:10.640 –> 00:33:15.400

dass ich auf einen Punkt komme, der ist f├╝r mich stellvertretend. Nat├╝rlich kannst du den

00:33:15.400 –> 00:33:22.000

Bankautomaten, der Bankautomat spuckt dir Geld aus, aber dem Bankautomaten kannst du nicht ins

00:33:22.000 –> 00:33:29.020

Gesicht schauen, in die Augen schauen und fragen, kann ich eigentlich dem Euro noch trauen? Das ist

00:33:29.020 –> 00:33:33.640

f├╝r mich das Thema, ich sage es jetzt mal so, einer Maschine kann man nicht in die Augen schauen

00:33:33.640 –> 00:33:43.840

und was, wenn wir nur noch Maschinen h├Ątten, w├╝rden wir uns eine Eigenschaft sparen k├Ânnen,

00:33:43.840 –> 00:33:49.800

beziehungsweise die g├Ąbe es nicht mehr, n├Ąmlich die aus der pers├Ânlichen Beziehung heraus auch

00:33:49.800 –> 00:33:57.200

im Gesch├Ąftsleben das basierende Vertrauen. Und der zweite wesentliche Punkt, auch noch mal bitte

00:33:57.200 –> 00:34:07.280

ein ganz starkes Petitum, nicht alles was m├Âglich ist, ist auch ├Âkonomisch sinnvoll. Das hei├čt,

00:34:07.280 –> 00:34:14.040

so brutal das jetzt klingt, es wird immer von Seiten eines Unternehmens die Abw├Ągung geben,

00:34:14.040 –> 00:34:20.240

was ist denn billiger? Die Maschine, die k├╝nstliche Intelligenz oder der Mensch?

00:34:20.240 –> 00:34:28.680

Und je mehr Menschen ich habe, dadurch dass KI vielleicht viele Menschen freisetzt,

00:34:28.680 –> 00:34:35.040

umso billiger wird die Ressource Mensch und umso eher komme ich zur Entscheidung, bevor ich mir

00:34:35.040 –> 00:34:40.680

da ein hochkomplexes System von Algorithmen und notwendigen Datenbasen ins Haus schaffe,

00:34:40.680 –> 00:34:48.120

dann lasse ich doch das lieber h├Ąndisch machen. Also danke nochmal, dass ich diesen Einwurf

00:34:48.120 –> 00:34:53.880

nochmal bringen durfte. Ja gerne und auch hier gibt es mit Sicherheit ganz spannende Aspekte

00:34:53.880 –> 00:34:57.920

zu diskutieren in diesem Zusammenhang. Da w├╝rde ich jetzt gerne erstmal Layla und Sabine mit

00:34:57.920 –> 00:35:00.920

einbinden und dann k├Ânnen wir ja gerne nochmal Querbez├╝ge herstellen. Layla,

00:35:00.920 –> 00:35:04.720

einen wundersch├Ânen guten Morgen. Einen wundersch├Ânen guten Morgen. Ja,

00:35:04.720 –> 00:35:09.000

also ihr habt jetzt sehr sehr viele Gedanken genannt. Ich ├╝berlege jetzt gerade, wo ich

00:35:09.000 –> 00:35:13.560

ankn├╝pfe. Ich fange ja mal an mit, also ich hoffe nicht, dass Sie ├╝berlegen, was

00:35:13.560 –> 00:35:16.600

billiger ist, weil ich habe auf dem Wirtschafts- Gymnasium mal gelernt, dass

00:35:16.600 –> 00:35:20.120

billig schlechte Qualit├Ąt hei├čt und meine Lehrerin hat mir immer gesagt, ich

00:35:20.120 –> 00:35:29.160

soll sagen g├╝nstiger. Und auch hier glaube ich, dass wir, um jetzt mal wieder

00:35:29.160 –> 00:35:34.280

den Rahmen zu finden, dass es oftmals darum geht, ich glaube, wir haben sehr

00:35:34.280 –> 00:35:40.860

sehr sehr viele Narrative auch, was wir so gesehen haben in Sendungen. So, ah, was

00:35:40.860 –> 00:35:45.320

passiert denn mit KI? Ich ├╝berlege mir das jetzt praktisch gesehen, um jetzt zu

00:35:45.320 –> 00:35:51.700

einem Beispiel zu kommen, wie kann mir die KI die Arbeitswelt erleichtern? Ich

00:35:51.700 –> 00:35:55.520

habe die auch sehr genau zugeh├Ârt, jetzt gerade was das Buch angeht. Ich fand das

00:35:55.520 –> 00:36:01.360

sehr interessant. Ich nutze das jetzt schon f├╝r die Arbeitswelt, dass ich mir

00:36:01.360 –> 00:36:05.280

Unterrichtsentw├╝rfe, dass ich da Ideen einbringen lasse.

00:36:05.280 –> 00:36:10.160

Ja, nat├╝rlich werden manche Bereiche ersetzt und es wurde ja auch gesagt, der

00:36:10.160 –> 00:36:15.520

Bankautomat ist hier schon ein Fall. Ich kenne Informatiker, mit denen habe ich

00:36:15.520 –> 00:36:20.880

gesprochen, die arbeiten schon mit der Version von Chat GPT 4. Ich habe sie auch

00:36:20.880 –> 00:36:27.440

gefragt, ob sie Angst haben, ersetzt zu werden. Sie haben gesagt nein, weil das und das kann

00:36:27.440 –> 00:36:32.000

die KI nicht. Nat├╝rlich kann man sagen, sie entwickelt sich sehr schnell. Wenn ich jetzt

00:36:32.000 –> 00:36:38.680

von meinem Beruf ausgehe, ich bin ja Ethiklehrerin, das, was ich, jetzt ├╝berlege ich gerade, Yasemin,

00:36:38.680 –> 00:36:43.440

welche Quelle ich nennen darf, aber ich glaube, Dreisatz ist okay und Skobel ist ein anerkannter

00:36:43.440 –> 00:36:56.240

Philosoph. Eine KI hat keine Moral. Und sie hat noch keine Augen und sie hat noch keine Moral.

00:36:56.240 –> 00:36:59.840

Das ist ja dieses Trolley-Experiment, was man da irgendwie machen kann.

00:36:59.840 –> 00:37:04.360

Dass man sich so ├╝berlegt, was, was, oder dieses Bahnexperiment, dass man sich so

00:37:04.360 –> 00:37:09.960

├╝berlegt, was, was kann ich denn? Nicht, was die KI nicht kann, wo kann ich nicht

00:37:09.960 –> 00:37:14.280

ersetzt werden, sondern auch, wo kann sie mich unterst├╝tzen? Und so m├Âchte ich das

00:37:14.280 –> 00:37:22.560

eigentlich denken. Und ja, die Moral ist, ist, ist in ihr nicht angelegt. Und da kann

00:37:22.560 –> 00:37:30.840

man ihr auch nicht b├Âse sein. Es ist nichts, was man ihr negativ zuschreiben kann. Du hast

00:37:30.840 –> 00:37:39.000

keine Moral. Nein, aber das ist etwas, was wir Menschen durchaus haben k├Ânnen. Und ja,

00:37:39.000 –> 00:37:43.520

auch die emotionale Intelligenz. Ich wei├č jetzt gar nicht, ob das nur in Pflegerberufen so ist,

00:37:43.520 –> 00:37:48.240

sondern auch in sozialen Berufen. Emotionale Intelligenz brauchen ja auch Verk├Ąufer. Wo

00:37:48.240 –> 00:37:54.400

Wo setze ich denn da an? Und ich glaube, das sind Punkte, die sehr positiv sind, wo ich sagen kann,

00:37:54.400 –> 00:38:01.000

als Unterst├╝tzung. Und ja, wir haben das schon, aber das ist ja auch ein Beschwerde der Hotlines.

00:38:01.000 –> 00:38:07.360

Wir reden so oft schon mit KIs, gerade wenn wir so einen Assistenten haben,

00:38:07.360 –> 00:38:12.360

also wenn wir jetzt irgendwie hier so eine Chatfunktion haben.

00:38:13.000 –> 00:38:18.000

Und hier, glaube ich, ist der Mensch zus├Ątzlich.

00:38:18.000 –> 00:38:23.720

Also die KI sollte zus├Ątzlich sein und nicht wir sollten der Zusatz sein.

00:38:23.720 –> 00:38:26.480

Und ja, Unternehmer ├╝berlegen so. Das stimmt.

00:38:26.480 –> 00:38:31.560

Ich hoffe, dass sie auch g├╝nstig denken.

00:38:31.560 –> 00:38:35.040

Was ist g├╝nstig? Was ist die Priorit├Ąt?

00:38:35.040 –> 00:38:39.000

Und ja, wie schon gesagt, ich versuche mir meine Arbeitswelt

00:38:39.000 –> 00:38:43.880

dadurch erleichtern zu lassen und m├Âchte da Menschen auch zuraten.

00:38:43.880 –> 00:38:48.560

Ich denke aber, dass es Bereiche gibt, wenn wir jetzt bei der Moral ansetzen, zum Beispiel

00:38:48.560 –> 00:38:53.400

Snapchat hat jetzt eine KI, die Kinder nutzen k├Ânnen.

00:38:53.400 –> 00:39:01.160

Und ja, da war ich ganz irritiert, wenn die KI dann sagt, schick mir ein Foto oder erz├Ąhl

00:39:01.160 –> 00:39:02.160

es nicht deinen Eltern.

00:39:02.160 –> 00:39:07.320

Das k├Ânnen wir der KI gar nicht vorwerfen, aber wir k├Ânnten den Machern vorwerfen.

00:39:07.320 –> 00:39:12.840

Warum benutzen Sie jetzt Kinder als Versuchsobjekt f├╝r diese KI?

00:39:12.840 –> 00:39:17.800

Und dann kann man nat├╝rlich sagen, die Gesetzeslage hat hier eine L├╝cke geboten.

00:39:17.800 –> 00:39:23.640

Aber ja, da ich bin jetzt nicht der Ethikrat der Welt,

00:39:23.640 –> 00:39:27.280

aber ja, das m├Âchte ich einfach nur zu bedenken geben.

00:39:27.280 –> 00:39:30.400

Aber ich finde es interessant, toll und m├Âchte mich unterst├╝tzen lassen.

00:39:30.400 –> 00:39:32.480

Danke f├╝rs Zuh├Âren.

00:39:32.480 –> 00:39:33.720

Ja, vielen, vielen lieben Dank.

00:39:33.800 –> 00:39:40.200

Und um an zwei Punkten jetzt nochmal anzudocken, um das aufzugreifen, was du gesagt hast, und

00:39:40.200 –> 00:39:42.000

dann zu Sabine r├╝ber zu switchen.

00:39:42.000 –> 00:39:50.080

Einmal, ich gebe mal den Impuls rein, doch, die KI hat eine Moral, ganz provokant, ganz

00:39:50.080 –> 00:39:56.080

bewusst an der Stelle formuliert, n├Ąmlich die Moral, die wir ihr als Mensch zuordnen.

00:39:56.080 –> 00:39:59.520

Das hei├čt, es ist ja letztendlich ein programmiertes System.

00:39:59.520 –> 00:40:05.040

Und je nachdem, was wir definieren, was Moral ist und das Eingeben in die Maschine, wird

00:40:05.040 –> 00:40:06.880

sie danach auch agieren.

00:40:06.880 –> 00:40:08.840

Dementsprechend hat sie eine Moral.

00:40:08.840 –> 00:40:14.600

Nicht eine selbst erarbeitete vielleicht an der Stelle, aber eine, die wir ihr programmieren.

00:40:14.600 –> 00:40:20.000

Und da m├Âchte ich gerne gleich nochmal ankn├╝pfen, n├Ąmlich an den vielen Sorgen, die hier diskutiert

00:40:20.000 –> 00:40:21.000

werden.

00:40:21.000 –> 00:40:26.840

Ganz h├Ąufig, was ich h├Âre, ist sowas wie, keine Ahnung, das verselbstst├Ąndigt sich

00:40:26.840 –> 00:40:35.280

es gibt Diskriminierung oder Sonstiges auch hier noch mal zu sensibilisieren. Das Problem und

00:40:35.280 –> 00:40:43.000

zugleich auch die L├Âsung ist der Mensch und nicht der Roboter. Das hei├čt, wenn, also worauf greift

00:40:43.000 –> 00:40:49.680

dann die KI zur├╝ck? Auf die Daten, die wir hier einspeisen. Wenn in den Daten, die wir einspeisen,

00:40:49.680 –> 00:40:56.200

eben nur m├Ąnnliche Formen verwendet werden, wenn sowieso heute schon Diskriminierung in

00:40:56.200 –> 00:40:59.200

in unseren Texten stattfindet, in den Ausschreibungen,

00:40:59.200 –> 00:41:02.280

in den Auswahlprozessen, die wir machen und, und, und.

00:41:02.280 –> 00:41:04.320

Da sind wir bei dem Problem Mensch.

00:41:04.320 –> 00:41:08.240

Unconscious Bias, ├╝berall ist das dokumentiert.

00:41:08.240 –> 00:41:11.280

Das sind die Informationen, die hier eingespeist werden.

00:41:11.280 –> 00:41:13.240

Dann darf ich mich nicht wundern,

00:41:13.240 –> 00:41:17.160

wenn auch die KI hier diskriminiert,

00:41:17.160 –> 00:41:19.640

Unconscious Bias aufgreift usw.

00:41:19.640 –> 00:41:22.600

Und die L├Âsung, das m├Âchte ich auch noch mal unterstreichen,

00:41:22.600 –> 00:41:24.600

ist gleichwohl auch wieder der Mensch.

00:41:24.680 –> 00:41:30.800

Denn wenn wir es schaffen, hier andere Dinge zu programmieren, uns darauf zu sensibilisieren,

00:41:30.800 –> 00:41:36.120

die Gefahren zu sehen, mit was auch immer, ob das Regulierungen sind, ob das ein Ethikrat

00:41:36.120 –> 00:41:40.400

ist, der dar├╝ber diskutiert oder was auch immer, dann k├Ânnen wir es auch schaffen,

00:41:40.400 –> 00:41:46.640

eben auch die Moral entsprechend so einzubauen, dass es nicht Gefahren, sondern Potenziale

00:41:46.640 –> 00:41:47.640

darstellt.

00:41:47.640 –> 00:41:48.640

Das ist mal das eine.

00:41:48.640 –> 00:41:51.880

Und das andere fand ich auch nochmal super, dass du das mit den Chatbots nochmal mit als

00:41:51.880 –> 00:41:52.880

Beispiel gebracht hast.

00:41:52.880 –> 00:41:57.200

Das hei├čt, das zeigt ja auch, wir nutzen das eben heute schon an ganz vielen Stellen,

00:41:57.200 –> 00:42:02.320

ohne dass es uns vielleicht bewusst ist, ob das jetzt Bankautomaten im Sinne der Automatisierung

00:42:02.320 –> 00:42:09.560

sind, die wir einsetzen, oder ob das Online-Banking ist im Sinne der Automatisierung, die wir

00:42:09.560 –> 00:42:10.720

nutzen und einsetzen.

00:42:10.720 –> 00:42:18.240

Das sind jetzt keine klassischen KI-gest├╝tzten Tools, aber allein schon die Automatisierung,

00:42:18.240 –> 00:42:23.680

die es ja in den letzten Jahren gab, die zeigt ja, das ist ja auch das, was viele Menschen

00:42:23.680 –> 00:42:24.680

eben wollen.

00:42:24.680 –> 00:42:29.040

Es setzt sich ja auch deswegen durch, weil, nur mal als Beispiel, Menschen eben nicht

00:42:29.040 –> 00:42:36.720

bereit sind, daf├╝r, dass Menschen irgendwo sitzen am Schalter, ja, Bankgeb├╝hren zu zahlen.

00:42:36.720 –> 00:42:41.400

Jeder von uns guckt, wenn es darum geht, wo bekomme ich eben auch ein Girokonto, das

00:42:41.400 –> 00:42:42.400

kostenfrei ist.

00:42:42.400 –> 00:42:47.280

Und gleichzeitig sagen wir dann aber, nee, damit sind wir irgendwie nicht einverstanden,

00:42:47.280 –> 00:42:52.440

Problemen gesellschaftlich gesehen, aber weil der Nutzen eben auf dem Markt gegeben ist und weil das

00:42:52.440 –> 00:42:58.040

f├╝r uns bequem ist, Onlinebanking zu nutzen, entscheiden wir uns am Ende dann doch f├╝r das

00:42:58.040 –> 00:43:02.560

Onlinebanking. Und so ├Ąhnlich ist es eben mit diesen ganzen KI-gest├╝tzten Tools, dass es nicht

00:43:02.560 –> 00:43:07.320

daran vorbeif├╝hrt, dass sich das eben in der Marktdurchdringung jetzt an der Stelle sozusagen

00:43:07.320 –> 00:43:14.360

auch durchsetzen wird. Zu dem Aspekt ganz kurz nochmal “billig” in Anf├╝hrungsstrichen oder

00:43:14.360 –> 00:43:20.360

schlechte Qualit├Ąt. Auch wenn es vielleicht von der Denke her Sinn macht, zu sagen, naja,

00:43:20.360 –> 00:43:24.720

wenn die Ressource Mensch g├╝nstiger wird, dann kann ich ja als Unternehmen auch ├╝berlegen,

00:43:24.720 –> 00:43:30.400

ob ich jetzt Ressource Mensch lieber der KI bevorzuge. Da entgegne ich jetzt nochmal als

00:43:30.400 –> 00:43:38.440

Impuls zu sagen, naja, aber wer hat dann weniger Fehlerpotenzial? Also wenn wir uns angucken,

00:43:38.440 –> 00:43:44.120

mit welchen Daten und mit welcher Hochgeschwindigkeit hier Ergebnisse produziert werden.

00:43:44.120 –> 00:43:49.280

Ich rede jetzt nicht von den Anteilen, die nur der Mensch bew├Ąltigen kann und die KI

00:43:49.280 –> 00:43:52.560

nicht erf├╝llen kann, sondern von den Dingen, die ich der KI abgeben kann.

00:43:52.560 –> 00:43:58.720

Dann im Sinne des Ergebnisses, was hier rauskommt in einer bestimmten Geschwindigkeit.

00:43:58.720 –> 00:44:02.720

Und das wird ein Mensch nicht erf├╝llen k├Ânnen, Punkt, aus meiner Sicht.

00:44:02.720 –> 00:44:05.760

Also wenn wir jetzt mal als Beispiel die Medizin nehmen.

00:44:05.760 –> 00:44:10.960

Wenn ich eben einen Mediziner habe, der eine Diagnose stellen soll, dann kann er eben nur

00:44:10.960 –> 00:44:14.720

auf seinen Erfahrungsschatz, nur in Anf├╝hrungsstrichen auf seinen Erfahrungsschatz und auf sein Wissen

00:44:14.720 –> 00:44:21.440

zur├╝ckgreifen, w├Ąhrend die KI hier auf das Wissen zur├╝ckgreift und auch auf Erfahrungsschatz

00:44:21.440 –> 00:44:27.360

zur├╝ckgreift von allen m├Âglichen Medizinern in dem Bereich und Dinge erkennen kann, die

00:44:27.360 –> 00:44:32.120

ein sehr guter Mediziner auch heute schon nicht mehr identifizieren kann und schon gar

00:44:32.120 –> 00:44:33.760

nicht in dieser Hochgeschwindigkeit.

00:44:33.760 –> 00:44:37.900

Also deswegen m├╝sste man hier wirklich auch nochmal in Richtung Fehlerpotenziale und

00:44:37.900 –> 00:44:41.980

sowas denken und nicht nur nach was ist g├╝nstiger in Anf├╝hrungsstrichen.

00:44:41.980 –> 00:44:46.540

Gleichwohl kommt dann aber nat├╝rlich die Problematik auf, dass ich ├╝berlegen muss,

00:44:46.540 –> 00:44:47.540

geht es immer nur um g├╝nstig?

00:44:47.540 –> 00:44:51.940

Was macht das marktwirtschaftlich, volkswirtschaftlich und so weiter?

00:44:51.940 –> 00:44:53.860

Das ist ja der n├Ąchste Aspekt.

00:44:53.860 –> 00:44:58.740

Denn wenn theoretisch jetzt mal, wenn man es spinnen w├╝rde und nicht davon ausgehen

00:44:58.740 –> 00:45:02.580

w├╝rde, dass sich neue Aufgaben ergeben, sondern dass wirklich hier Massenarbeitslosigkeit

00:45:02.580 –> 00:45:07.580

entstehen w├╝rde, nur mal angenommen, wenn wir diese Option mal durchspielen, dann w├╝rde das ja bedeuten,

00:45:07.580 –> 00:45:12.480

dass die Menschen keine Kaufkraft mehr haben. Und das wiederum hat ja dann auch in der Kettenreaktion

00:45:12.480 –> 00:45:17.480

betrachtet Auswirkungen auf die Unternehmungen. Das hei├čt, wir kommen hier in einen Kreislauf rein,

00:45:17.480 –> 00:45:23.280

den wir auch nicht als toll ansehen d├╝rfen, sondern hier macht es wirklich Sinn, auch in Kettenreaktionen

00:45:23.280 –> 00:45:28.280

zu denken und auch zu ├╝berlegen, was sind denn L├Âsungen. Und L├Âsungen k├Ânnten, nur mal als Beispiel,

00:45:28.280 –> 00:45:33.080

k├Ânnte man ja auch ├╝berlegen, wenn Unternehmen in Zukunft weniger Mitarbeiter besch├Ąftigen,

00:45:33.080 –> 00:45:38.320

vielleicht gibt es dann Steuern f├╝r die Unternehmen, die KI einsetzen. Das hei├čt,

00:45:38.320 –> 00:45:42.160

irgendwoher muss ja auch dieses Geld wieder beschafft werden, um dieses System auch wieder

00:45:42.160 –> 00:45:46.440

auf den Beinen zu halten. Also hier gibt es viele, viele Denkm├Âglichkeiten und viele Richtungen,

00:45:46.440 –> 00:45:51.680

die wir laufen k├Ânnen. Und deswegen ist es ja auch ein Raum zum Gedanken jonglieren,

00:45:51.680 –> 00:45:55.880

sozusagen. Das hei├čt, nichts ist ausgeschlossen und verschiedene Optionen einfach mal aufzumachen

00:45:55.880 –> 00:45:59.160

machen und durchzudenken, ist denke ich das Beste, was wir in diesem Zusammenhang

00:45:59.160 –> 00:46:03.360

tun k├Ânnen, um einfach uns mal zu sensibilisieren, in welche Richtung kann

00:46:03.360 –> 00:46:06.920

das Ganze denn auch laufen. Sabine, einen wundersch├Ânen guten Morgen, vielen Dank

00:46:06.920 –> 00:46:14.360

f├╝r deine Geduld. Wow, guten Morgen zusammen. Also ich wei├č nicht, ob ich alle Punkte noch zusammenkriege.

00:46:14.360 –> 00:46:19.800

Zum ersten Mal, ich geh├Âre sicherlich zu den Zauberern, ich oute mich hiermit. Zum

00:46:19.800 –> 00:46:25.640

anderen, das Messen mit dem Geldautomaten, da wollte ich ein kleines Beispiel geben.

00:46:25.640 –> 00:46:27.880

Ich arbeite mit der Volksbank zusammen.

00:46:27.880 –> 00:46:29.520

Die sind schon drei Schritte weiter.

00:46:29.520 –> 00:46:34.080

Die sind im l├Ąndlichen Bereich und haben nicht nur einen Geldautomaten,

00:46:34.080 –> 00:46:35.800

sondern wenn man da reinkommt…

00:46:35.800 –> 00:46:37.680

Ich habe den Namen leider vergessen.

00:46:37.680 –> 00:46:39.560

Da kommt hier der Bildschirm auf.

00:46:39.560 –> 00:46:43.920

Und dann entscheidet eine junge Dame und die unterh├Ąlt sich.

00:46:43.920 –> 00:46:47.880

Und das haben sie gepr├╝ft und sind damit sehr gut angekommen.

00:46:47.880 –> 00:46:54.120

Also das 0815-Schaltergesch├Ąft wird inzwischen von der Dame erledigt.

00:46:54.280 –> 00:46:58.120

Und die geht dann weiter in ein Callcenter.

00:46:58.120 –> 00:47:01.080

In dem Moment, wo es bei ihr scheitert,

00:47:01.080 –> 00:47:04.280

sagt sie dann einfach, ich gehe dann gerade mal an die Kollegin weiter.

00:47:04.280 –> 00:47:07.640

Also so weit entfernt sind wir da ├╝berall nicht mehr.

00:47:07.640 –> 00:47:10.920

Was ich noch zu bedenken gebe, ist einfach,

00:47:10.920 –> 00:47:13.400

ich versuche ungef├Ąhr seit vier Wochen,

00:47:13.400 –> 00:47:15.720

mich bei einer Bausparkasse pers├Ânlich,

00:47:15.720 –> 00:47:19.240

also ich bin schon legitimiert, mein Mann f├╝r unseren minderj├Ąhrigen Sohn,

00:47:19.240 –> 00:47:21.640

ja, du kannst Postagent machen.

00:47:21.640 –> 00:47:26.360

Bei der Post, in Mannheim haben leider beide Postoffices zugemacht.

00:47:26.360 –> 00:47:28.360

DHL ├╝bernimmt es nicht mehr.

00:47:28.360 –> 00:47:32.320

Ich habe inzwischen mit allen, die ich kenne, gesprochen,

00:47:32.320 –> 00:47:35.120

wir schicken Ihnen neuen Link f├╝r Videoerdenkung.

00:47:35.120 –> 00:47:37.120

Funktioniert nicht.

00:47:37.120 –> 00:47:40.280

Was ich damit einfach nur sagen will, der Linksachternent,

00:47:40.280 –> 00:47:42.640

n├Ąmlich, Sie sind bereits legitimiert.

00:47:42.640 –> 00:47:46.400

Das hei├čt, in dem Moment, wo ich das Ganze einsetze,

00:47:46.400 –> 00:47:49.840

muss ich nat├╝rlich hinter den Kulissen Sorge daf├╝r tragen,

00:47:49.840 –> 00:47:54.820

dass es auch funktioniert. Aber das hat ja nichts mit KI zu tun, das ist ja mit der

00:47:54.820 –> 00:47:58.420

gesamten Technik. Also nicht den zweiten Schritt, sondern den ersten Schritt machen.

00:47:58.420 –> 00:48:06.260

Was ich noch sagen wollte, was wollte ich noch sagen? Ach ja, Chat GPT, nein Quatsch,

00:48:06.260 –> 00:48:15.340

wie hei├čt das jetzt, was die Layla vorhin sagte, dieses Tool, was jetzt auch, was meine

00:48:15.340 –> 00:48:20.920

Kinder auch verwenden, nur mit den

00:48:20.920 –> 00:48:25.080

Kindern verwende. Und da bin ich ein

00:48:25.080 –> 00:48:26.760

bisschen Laylas Meinung. Nat├╝rlich ist

00:48:26.760 –> 00:48:28.240

da irgendein Mensch dahinter, der das

00:48:28.240 –> 00:48:30.760

programmiert und sagt, schick mir das

00:48:30.760 –> 00:48:33.200

Foto hin und schick mir das. Aber das ist

00:48:33.200 –> 00:48:37.320

ja ein bisschen die Gefahr. Ich gebe hier

00:48:37.320 –> 00:48:39.240

Yasemin v├Âllig recht, der VKI kann

00:48:39.240 –> 00:48:42.320

nichts, was wir ihr nicht weitergeben und

00:48:39.240 –> 00:48:47.400

was wir nicht implementieren. Aber das Darknet ist ja dann in dem Moment auch aktiv. Und wer

00:48:47.400 –> 00:48:52.560

sorgt daf├╝r, dass das Richtige an die weitergegeben wird und nicht das Falsche? Das w├╝rde mich schon

00:48:52.560 –> 00:48:57.040

noch mal interessieren. Ansonsten hatte ich noch einen vierten Punkt, den habe ich aber leider

00:48:57.040 –> 00:49:02.800

vergessen. Vielen Dank. Kommt bestimmt wieder. Ja, vielen, vielen lieben Dank. Und damit m├Âchte

00:49:02.800 –> 00:49:06.480

ich gerne noch mal die Gelegenheit geben, wirklich auch Querbez├╝ge herzustellen. Mark,

00:49:06.480 –> 00:49:08.480

Du hattest dich gemeldet und dann gerne J├╝rgen.

00:49:08.480 –> 00:49:11.960

Ja, da m├Âchte ich sofort darauf eingehen, liebe Sabine.

00:49:11.960 –> 00:49:15.600

Ganz aktuell habe ich gelesen, genau aus diesem Grund, wer kontrolliert das?

00:49:15.600 –> 00:49:20.120

Hat Italien, GPT zurzeit gesperrt, weil sie gesagt hat, es ist ├╝berhaupt nicht

00:49:20.120 –> 00:49:23.880

ersichtlich, was mit diesen Datenanfragen gemacht werden,

00:49:23.880 –> 00:49:26.240

wie die Daten verarbeitet werden, wo die landen?

00:49:26.240 –> 00:49:28.640

Da habe ich dann einen kurzen Moment dr├╝ber nachgedacht und dachte, okay,

00:49:28.640 –> 00:49:31.160

die andere gro├če Suchmaschine, die wir t├Ąglich benutzen,

00:49:31.160 –> 00:49:32.280

was sammelt die denn f├╝r Daten?

00:49:32.280 –> 00:49:34.440

Also es wird nur eine Frage der Zeit sein, bis das auch

00:49:35.280 –> 00:49:39.960

wieder sich erledigt hat. Dann m├Âchte ich noch sagen, ergebnisorientiert. Wir haben

00:49:39.960 –> 00:49:43.120

├╝ber Menschen gesprochen und da sollte uns auch klar sein, wenn wir ein

00:49:43.120 –> 00:49:45.800

Unternehmen haben, dass ergebnisorientiert arbeiten. Bei einem

00:49:45.800 –> 00:49:50.160

Bewerbungsgespr├Ąch z├Ąhlen 60 bis 80 Prozent Sympathie. Das hei├čt nicht mal

00:49:50.160 –> 00:49:54.280

die Zeugnisse, sondern die Sympathie. Und in der Diskussion, das ist jetzt ohne

00:49:54.280 –> 00:49:57.360

Bewertung, ist es ja eigentlich ein Wahnsinn, dass Chefs und Unternehmen

00:49:57.360 –> 00:50:02.360

Menschen nach Sympathie einstellen und nach ihren F├Ąhigkeiten. Und dann das

00:50:02.360 –> 00:50:05.600

zweite ist die Verantwortung, den Begriff haben wir noch nicht gefallen, genau, weil wir

00:50:05.600 –> 00:50:10.400

diese Dinge jetzt alle besprechen, was da auf uns zukommt, muss es da eine

00:50:10.400 –> 00:50:14.120

Verantwortung geben, wie wir mit Daten umgehen und und und, wer kontrolliert die

00:50:14.120 –> 00:50:18.240

Daten, was hat das f├╝r Auswirkungen und zum Thema g├╝nstig als Unternehmer muss

00:50:18.240 –> 00:50:21.160

ich noch sagen, ich nenne jetzt die Automobilmarke nicht, es gibt nat├╝rlich

00:50:21.160 –> 00:50:24.760

auch Unternehmer, die ganz ganz andere Schritte machen, die einfach sagen, wollen

00:50:24.760 –> 00:50:28.840

wir ├╝berhaupt noch den g├╝nstigen Markt haben? Nein, der Markt der Superreichen ist

00:50:28.840 –> 00:50:32.040

viel interessanter und im Automobilbereich gibt es also speziell eine

00:50:32.040 –> 00:50:36.360

Automarke, die gesagt hat, wir verkaufen f├╝r uns sind Autos interessant ab 130,

00:50:36.360 –> 00:50:42.120

150.000 Euro und es gibt einfach in Saudi-Arabien und Dubai Leute, die kaufen

00:50:42.120 –> 00:50:45.440

sich da gleich zehn davon in verschiedenen Farben. Damit verdienen die

00:50:45.440 –> 00:50:49.240

Geld. Das hei├čt diesen Massen- und Billigmarkt, den verlassen gerade einige

00:50:49.240 –> 00:50:52.280

uns bekannte Firmen, weil die sagen, mit diesem Massenmarkt verdienen wir gar kein

00:50:52.280 –> 00:50:56.040

Geld mehr. Wir konzentrieren uns auf den Premiummarkt. Das hat dann nat├╝rlich auch

00:50:56.040 –> 00:50:59.800

wieder zum Vorteil, wenn man einen Premium-Markt hat, muss nat├╝rlich die

00:50:59.800 –> 00:51:03.480

Qualit├Ąt, dann sind wir wieder bei der Qualit├Ąt, super top sein, sonst kriegt

00:51:03.480 –> 00:51:08.220

man nat├╝rlich nicht ein Auto f├╝r 120 oder noch mehr 150.000 Euro verkauft. Und

00:51:08.220 –> 00:51:12.680

das ist total spannend, wie bei jedem Thema, egal wie wir hingucken, jeder von

00:51:12.680 –> 00:51:16.840

uns findet die Antworten, aber ich bin der Meinung, was der J├╝rgen auch gesagt

00:51:16.840 –> 00:51:20.040

hat, nicht mit Panik mache, sondern einfach mit einem ganz objektiven

00:51:20.040 –> 00:51:24.640

Auseinandersetzung, mit der Faktenpr├╝fung und wenn man sich damit

00:51:24.640 –> 00:51:29.200

wirklich besch├Ąftigt mit dieser KI, ist die Mehrheit der Untersuchungen, die man

00:51:29.200 –> 00:51:32.660

gerade finden kann im Netz, dass man davon ausgeht, dass es eher zu einer

00:51:32.660 –> 00:51:37.500

Umstrukturierung kommen kann, statt zu einer Massenentlastung. Obgleich es

00:51:37.500 –> 00:51:41.320

nat├╝rlich auch sein kann, dass es nat├╝rlich bestimmte, nat├╝rlich fallen

00:51:41.320 –> 00:51:44.160

Arbeitspl├Ątze auch weg. Eine Umstrukturierung kann nat├╝rlich, das war

00:51:44.160 –> 00:51:48.140

der Punkt von Yasemin, auch bedeuten, dass es f├╝r bestimmte Menschen so in einer

00:51:48.140 –> 00:51:51.520

Firma Jobs nicht mehr gibt, die sie bisher gemacht haben, dass sie in andere

00:51:51.520 –> 00:51:55.000

Jobs gehen und dass dann wieder was passiert, was wir auch schon als Thema

00:51:55.000 –> 00:51:58.100

hatten, dass man dann f├╝r diese anderen Jobs dann eben vielleicht weniger

00:51:58.100 –> 00:52:01.240

entlohnt wird, wenn man nicht die Bildung hat. Auch das Thema hatten wir schon mal.

00:52:01.240 –> 00:52:06.040

Bildung wird ein ganz wichtiges Thema, denn wenn man in KI, in der KI

00:52:06.040 –> 00:52:10.040

besch├Ąftigt sein m├Âchte, also sei es f├╝r Programmierung oder Herstellung, dann

00:52:10.040 –> 00:52:12.960

braucht man eine bestimmte Bildung. Das wird nicht gehen, wenn man nicht lesen

00:52:12.960 –> 00:52:16.960

kann. Und da sieht man wieder, da sind wir wieder beim Thema Komplexit├Ąt und

00:52:16.960 –> 00:52:19.880

wahrscheinlich reicht nicht ein Raum zu dem Thema, sondern wir k├Ânnen bestimmt

00:52:19.880 –> 00:52:22.880

locker f├╝nf bis zehnmal so einen Raum machen zum Thema KI.

00:52:22.880 –> 00:52:29.280

Ja, mit Sicherheit. Und bevor ich jetzt noch mal zu J├╝rgen komme, dann Layla und dann Sabine,

00:52:29.280 –> 00:52:33.600

m├Âchte ich gerne noch mal ganz kurz diesen Bildungsbegriff aufgreifen, denn das war ja

00:52:33.600 –> 00:52:40.280

auch mitunter eines der Themen beim Autoren-Fr├╝hst├╝ck mit Dr. Franz H├╝tter an der Stelle. ├ťbrigens

00:52:40.280 –> 00:52:45.560

sehr lohnenswert wirklich auch reinzuh├Âren, denn anzunehmen, dass hier jetzt keine Jobs

00:52:45.560 –> 00:52:49.560

gestrichen werden, w├Ąre einfach eine Illusion an der Stelle.

00:52:49.560 –> 00:52:51.560

Das hat eine gewisse Naivit├Ąt.

00:52:51.560 –> 00:52:54.560

Also hier werden definitiv Jobs gestrichen.

00:52:54.560 –> 00:52:56.560

Punkt. Das wird kommen.

00:52:56.560 –> 00:52:58.560

Und das ist auch schon am Laufen.

00:52:58.560 –> 00:53:01.560

Also verschiedene Unternehmen auch heute schon.

00:53:01.560 –> 00:53:04.560

Also Namen m├Âchte ich jetzt mal weglassen,

00:53:04.560 –> 00:53:06.560

weil ich nicht genau wei├č, ob es schon kommuniziert ist.

00:53:06.560 –> 00:53:11.560

Aber ein gro├čes Unternehmen ist gerade dabei,

00:53:11.560 –> 00:53:13.560

10.000 Stellen zu streichen.

00:53:13.560 –> 00:53:16.280

unter anderem wegen KI-Nutzung und so weiter.

00:53:16.280 –> 00:53:19.920

Und viele andere Unternehmen, auch im Mittelstand ├╝brigens,

00:53:19.920 –> 00:53:23.320

also auch kleine Unternehmen und mittelst├Ąndische Unternehmen,

00:53:23.320 –> 00:53:25.240

die sich damit schon befasst haben,

00:53:25.240 –> 00:53:29.760

stellen weniger ein oder streichen Stellen.

00:53:29.760 –> 00:53:32.040

D.h. das ist schon am Rollen.

00:53:32.040 –> 00:53:34.120

Und viele sind noch gar nicht aufgewacht.

00:53:34.120 –> 00:53:36.240

D.h. hier wird noch ganz, ganz viel passieren.

00:53:36.240 –> 00:53:38.520

Aber ich m├Âchte das gar nicht negativ darstellen,

00:53:38.520 –> 00:53:40.920

sondern, und da sind wir bei diesem Bildungsaspekt,

00:53:41.000 –> 00:53:45.520

Es wird deutlich, dass wir bestimmte ├╝bergeordnete Skills brauchen,

00:53:45.520 –> 00:53:48.640

├╝ber dieses reine Wissen hinaus, sozusagen,

00:53:48.640 –> 00:53:50.920

was bisher uns ja vielleicht an der Stelle

00:53:50.920 –> 00:53:52.600

auch ein St├╝ck weit mit ausgemacht hat,

00:53:52.600 –> 00:53:56.760

unabh├Ąngig von auch diesen emotionalen Kompetenzen und so weiter.

00:53:56.760 –> 00:53:58.440

Und da kann man ja auch mal drauf schauen.

00:53:58.440 –> 00:54:00.680

Also es wird ja auch im therapeutischen Bereich schon…

00:54:00.680 –> 00:54:04.680

Es ist Wahnsinn, was hier bahnbrechend mit der KI entwickelt wird,

00:54:04.680 –> 00:54:07.920

dass eben auch therapeutische Settings jetzt kreiert werden,

00:54:07.920 –> 00:54:10.720

die durch KI durchgef├╝hrt werden.

00:54:10.800 –> 00:54:12.960

Weil es zum Beispiel nicht genug Therapeuten gibt.

00:54:12.960 –> 00:54:17.400

Weil es… Oder eine Telefonseelsorge oder so was, KI gest├╝tzt,

00:54:17.400 –> 00:54:19.920

das ist der Hammer, was hier alles am Kommen ist gerade.

00:54:19.920 –> 00:54:24.000

Und hier nicht anzunehmen, so nach dem Motto, das funktioniert nicht.

00:54:24.000 –> 00:54:25.280

Also wenn ich die Wahl habe,

00:54:25.280 –> 00:54:28.600

zwischen ich muss sechs Monate oder ein Jahr auf einen Therapeuten warten,

00:54:28.600 –> 00:54:32.400

oder ich nehme die KI als Therapiem├Âglichkeit,

00:54:32.400 –> 00:54:35.800

ja, was ist denn f├╝r den, der vielleicht suizidgef├Ąhrdet ist, besser?

00:54:35.800 –> 00:54:38.920

Also auch mal aus dieser Perspektive zu sehen,

00:54:39.000 –> 00:54:42.080

Hier sind ganz viele Chancen, die wir aufgreifen k├Ânnen,

00:54:42.080 –> 00:54:45.680

sowohl als Unternehmen als auch individuell betrachtet

00:54:45.680 –> 00:54:47.920

und auch gesellschaftlich betrachtet.

00:54:47.920 –> 00:54:49.960

Denn das ist ja auch eine politische Diskussion,

00:54:49.960 –> 00:54:53.520

die wir hier gerade f├╝hren, auch mit Fachkr├Ąften aus dem Ausland usw.,

00:54:53.520 –> 00:54:56.200

was ja auch Vor- und Nachteile mit sich bringt.

00:54:56.200 –> 00:54:57.880

Und gleichwohl eben zu sehen,

00:54:57.880 –> 00:55:02.040

welche Rolle jetzt pl├Âtzlich auch der Bildung wieder mit zukommt.

00:55:02.040 –> 00:55:05.520

N├Ąmlich, wir sind bei dem Aspekt der Schl├╝sselqualifikation,

00:55:05.520 –> 00:55:07.720

der ├╝bergeordneten Qualifikation.

00:55:07.800 –> 00:55:12.360

Hier muss ganz, ganz schnell und ganz intensiv auch begleitet werden.

00:55:12.360 –> 00:55:17.560

Das hei├čt, die Anforderungen, eben auch mit Komplexit├Ąt umzugehen und und und

00:55:17.560 –> 00:55:19.040

werden wichtiger denn je.

00:55:19.040 –> 00:55:22.800

Sie waren jetzt auch schon wichtig, aber gerade jetzt auch mit Ungewissheiten,

00:55:22.800 –> 00:55:24.760

Spannungsfeldern, Dilemmata und so weiter.

00:55:24.760 –> 00:55:27.360

Das wird ganz, ganz wichtig.

00:55:27.360 –> 00:55:31.600

Und da eben nur Wissensvermittlung zu betreiben in vielen Institutionen hilft

00:55:31.600 –> 00:55:33.600

uns ├╝berhaupt nicht weiter an dieser Stelle.

00:55:33.840 –> 00:55:39.720

Der reine Qualifizierungsgedanke ist einfach ad acta zu legen.

00:55:39.720 –> 00:55:44.240

Und hier neu zu denken, umzudenken und vor allem auch ins Handeln zu kommen,

00:55:44.240 –> 00:55:48.520

finde ich, ein unwahrscheinlich wichtiger Aspekt, um eben Selbstbestimmung,

00:55:48.520 –> 00:55:56.640

Selbstorganisation und Selbstwirksamkeit auch langfristig herzustellen oder wiederherzustellen.

00:55:56.640 –> 00:55:57.640

J├╝rgen.

00:55:57.640 –> 00:56:04.000

Ihr k├Ânnt mich jetzt leider nicht grinsen sehen, aber es ist Wasser auf die M├╝hlen,

00:56:04.000 –> 00:56:11.240

insbesondere nat├╝rlich immer die Qualit├Ąt deiner Zusammenf├╝hrung, aber heute die L├Ąnge

00:56:11.240 –> 00:56:19.240

der Ausf├╝hrungen, wie komplex dieses Thema ist und ja, lieber Marc, ich hatte das am Anfang schon

00:56:19.240 –> 00:56:23.840

Positioniert. Dieses Thema w├Ąre wirklich eines Dachthemas wert.

00:56:23.840 –> 00:56:30.640

Und danke f├╝r deinen Input, dass im Hinblick auf, was ich angef├╝hrt

00:56:30.640 –> 00:56:34.840

habe, im Hinblick einer Maschine in die Augen schauen, Vertrauen geht

00:56:34.840 –> 00:56:39.640

verloren. Das sehe ich genauso spiegelbildlich f├╝r die

00:56:39.640 –> 00:56:45.740

F├╝hrungsqualit├Ąt beziehungsweise f├╝r das Thema Verantwortung. Eine

00:56:45.740 –> 00:56:51.360

Maschine Verantwortung ├╝bernehmen f├╝r die Richtigkeit, f├╝r die Wahrheit, f├╝r die

00:56:51.360 –> 00:56:58.420

Lernf├Ąhigkeit und da bin ich jetzt beim n├Ąchsten Thema, was glaube ich auch einer

00:56:58.420 –> 00:57:04.140

Komplexit├Ątshygiene sehr gut t├Ąte, wenn man sich klar werden w├╝rde, was ist

00:57:04.140 –> 00:57:08.980

eigentlich der Unterschied zwischen Automatisierung, zwischen Maschinen

00:57:08.980 –> 00:57:15.500

lernen und k├╝nstlicher Intelligenz. Also mit Hinblick in Endausbaustufe, Richtung

00:57:15.500 –> 00:57:19.300

Abbildung von neuronalen Netzwerken, wie es unser Gehirn hat.

00:57:19.300 –> 00:57:23.500

Also das ist auch, und ich komme immer wieder auf den Punkt,

00:57:23.500 –> 00:57:28.300

eigentlich ein viel zu komplexes Thema, um nicht daraus ein Dach zu machen.

00:57:28.300 –> 00:57:31.300

Und ganz zum Schluss noch eine launige Bemerkung,

00:57:31.300 –> 00:57:38.300

weil es wohl Widerst├Ąnde gegen den Begriff Billig gibt.

00:57:38.300 –> 00:57:47.540

In der ├ľkonomie oder in der Wirtschaft gibt es wohl eine Unterscheidung. Deswegen gibt es auch

00:57:47.540 –> 00:57:55.900

die Begriffe zwischen billig und g├╝nstig. Da gibt es eine ganz vehemente Unterschiedlichkeit. Ich

00:57:55.900 –> 00:58:01.060

m├Âchte jetzt aber die Einzelheiten nicht ersparen, aber wer das wissen will, dem lege ich das gerne

00:58:01.060 –> 00:58:08.980

Vielen Dank. Ja, super. Vielen, vielen lieben Dank. Layla. Ja, ich komme mir heute ein bisschen

00:58:08.980 –> 00:58:16.620

vor wie der Advokat Diaboli und m├Âchte mich zun├Ąchst deswegen erstmal bedanken, weil dem

00:58:16.620 –> 00:58:24.700

ist nicht so, Yasemin, f├╝r deinen Impuls. Weil der Impuls war ja, eine KI hat nicht keine Moral. Und

00:58:24.700 –> 00:58:30.620

das finde ich gut, weil Sprache ist sehr wichtig und die schafft ja auch Realit├Ąten. Nee, sie hat

00:58:30.620 –> 00:58:36.260

dem Moral des Programmierers. Und das sehen wir. Und das sind halt Diskussionen,

00:58:36.260 –> 00:58:41.620

die kommen schon beim autonomen Fahren. Und da k├Ânnt ihr gerne, also das hei├čt

00:58:41.620 –> 00:58:47.500

“The Moral Machine”, das ist von der Harvard University. Macht das mal und guckt euch

00:58:47.500 –> 00:58:50.540

das mal an. Da m├╝sst ihr Entscheidungen treffen. Und die sind sehr komplex und die

00:58:50.540 –> 00:58:56.260

fallen uns allen schwer. Was ich sagen m├Âchte, ist, ich bin sehr positiv der KKI

00:58:56.260 –> 00:59:04.460

gegen├╝ber gestimmt. Das ist so. Und trotzdem ist es so, dass ich sage, sie hat die Moral

00:59:04.460 –> 00:59:09.700

des Programmierers und hier stecken wirtschaftliche Interessen dahinter. Das ist einfach das,

00:59:09.700 –> 00:59:16.060

was mir auff├Ąllt. Und das f├Ąllt mir bei Snapchat auf, wenn Kindern gesagt wird,

00:59:16.060 –> 00:59:22.260

schick mir mal ein Foto, dann wird die Uhr gelobt. Und welche Kopfh├Ârer sind das? Oder erz├Ąhl nicht

00:59:22.260 –> 00:59:28.980

deinen Eltern, dass du mit mir gesprochen hast und eine KI denkt sich da nichts dabei oder wenig oder

00:59:28.980 –> 00:59:33.860

die wirtschaftlichen Interessen stecken dahinter, weil wir wissen nicht, wie sie programmiert ist

00:59:33.860 –> 00:59:39.540

und wer sie programmiert hat und warum das so ist. Und das soll jetzt auch kein Unken sein,

00:59:39.540 –> 00:59:46.460

wir sollen das nicht tun, sondern ja, eigentlich ist es eher eine Mahnung an den Menschen und an

00:59:46.460 –> 00:59:52.060

die wirtschaftlichen Interessen und das sehen wir auch in der Wirtschaft, weil wir haben keinen

00:59:52.060 –> 00:59:59.060

Gesamtethikrat der Welt. Wir haben keine allgemeing├╝ltige Moral. Und das ist ein Punkt,

00:59:59.060 –> 01:00:05.060

der mir halt auff├Ąllt und der ein Stolperstein sein kann. Trotzdem k├Ânnen wir uns dieser

01:00:05.060 –> 01:00:09.860

Entwicklung weder verschlie├čen, noch sollten wir das tun und sollten sie nutzen. Deswegen

01:00:09.860 –> 01:00:16.060

bedanke ich mich auch herzlich f├╝r die Impulse und die Diskussion und denke, dass es wichtig ist,

01:00:16.060 –> 01:00:20.780

wie nutzen wir es. Und ich muss jetzt gerade an meine Krankenversicherung denken, die ich

01:00:20.780 –> 01:00:25.340

angerufen habe und h├Ątte ich dann mit einem Bot telefoniert, w├Ąre das nicht so sch├Ân

01:00:25.340 –> 01:00:31.960

gewesen, weil ich einen Einzelfall hatte. Und das war aufgrund meiner chronischen

01:00:31.960 –> 01:00:39.380

Erkrankung. Und meine Sachbearbeiterin hatte genau dieselbe Erkrankung

01:00:39.380 –> 01:00:44.580

und konnte das total gut nachempfinden und hat dann den Einzelfall gesehen

01:00:45.140 –> 01:00:50.860

und hat alles daf├╝r getan, dass das entsprechend behandelt worden ist.

01:00:50.860 –> 01:00:53.220

Und ich will nicht sagen, das macht eine KI nicht.

01:00:53.220 –> 01:00:58.900

Ich sage nur, ich wei├č nicht, ob das immer so allgemeing├╝ltig gemacht wird.

01:00:58.900 –> 01:01:03.860

Und deswegen bin ich ganz froh, dass ich eine Sachbearbeiterin hatte,

01:01:03.860 –> 01:01:06.980

die das nachvollziehen konnte.

01:01:06.980 –> 01:01:09.060

Und das ist so das Einzige.

01:01:09.060 –> 01:01:10.380

Ich m├Âchte das nutzen.

01:01:10.380 –> 01:01:12.140

Ich finde das super.

01:01:12.140 –> 01:01:14.420

Es ist egal, ob wir es g├╝nstig oder billig nennen.

01:01:14.420 –> 01:01:20.920

Ich glaube einfach, dass es wichtig ist, dass wir es uns nochmal genau anschauen und dass wir nicht vergessen,

01:01:20.920 –> 01:01:25.220

das Problem ist nicht die KI, sondern das Problem ist der Mensch.

01:01:25.220 –> 01:01:28.620

Und das Problem ist vielleicht das wirtschaftliche Interesse.

01:01:28.620 –> 01:01:32.920

Und wenn wir das richtig machen und das richtig einspeisen, kann das super sein.

01:01:32.920 –> 01:01:39.920

Aber wenn wir nur die wirtschaftlichen Interessen dahinter sehen und das so eingespeist wird,

01:01:39.920 –> 01:01:46.080

dann ist es unter Umst├Ąnden so, dass dann Schwierigkeiten entstehen k├Ânnen,

01:01:46.080 –> 01:01:50.840

ja, wo Situationen entstehen k├Ânnen, die schwierig sind. Aber ich nutze es auch,

01:01:50.840 –> 01:01:54.520

ich nutze es gerne und m├Âchte nochmal auf den Link hinweisen, weil das mit der

01:01:54.520 –> 01:02:00.000

Buchidee finde ich toll und ja, w├╝rde mich auch freuen, wenn dadurch tolle

01:02:00.000 –> 01:02:04.520

B├╝cher und tolle Ideen entstehen und ja, vielen Dank f├╝rs Zuh├Âren.

01:02:04.520 –> 01:02:08.680

Ja, vielen, vielen lieben Dank und bevor ich gleich zu Sabine Switsche und wir

01:02:08.680 –> 01:02:14.520

dann im Anschluss an in unsere Abschlussrunde f├╝r heute ├╝bergehen, m├Âchte ich gerne noch zwei

01:02:14.520 –> 01:02:20.200

Aspekte aufgreifen. “The Moral Machine” und “The Harvard University” waren jetzt Stichworte,

01:02:20.200 –> 01:02:24.640

die gefallen sind in dem Zusammenhang. Da m├Âchte ich auch gerne den Kreis noch mal schlie├čen zu

01:02:24.640 –> 01:02:30.160

dem Szenariendenken, was wir auch wieder beim Autoren-Fr├╝hst├╝ck ├╝brigens hatten mit Dr.

01:02:30.160 –> 01:02:35.520

Franz H├╝tter. Also hier wurde ja auch noch mal darauf sensibilisiert, dass wir mehr Training

01:02:35.520 –> 01:02:43.360

darin brauchen, in im Szenarien denken und dass das eines der ├╝bergeordneten Skills ist, was wir

01:02:43.360 –> 01:02:49.320

hier wirklich, ob das jetzt mit der Arbeit mit KI ist, wie die Programmierung ist oder sonstiges

01:02:49.320 –> 01:02:53.800

oder auch andere Kontexte, dass es eben um Szenarien denken geht. Also das m├Âchte ich gerne

01:02:53.800 –> 01:02:57.800

hier noch mal unterstreichen und h├Ârt auf jeden Fall, wer es noch nicht geh├Ârt hat, wenn ich

01:02:57.800 –> 01:03:03.440

live dabei war, auch in diese Folge rein. ├ťbrigens erwarten wir Dr. Franz H├╝tter auch noch mal im

01:03:03.440 –> 01:03:08.080

Kontext von VR, auch zum Experten-Talk.

01:03:08.080 –> 01:03:10.480

Da freue ich mich auch schon mega drauf.

01:03:10.480 –> 01:03:13.040

In den n├Ąchste Woche ist das, glaube

01:03:13.040 –> 01:03:14.400

ich, wenn ich mich nicht irre. Also

01:03:14.400 –> 01:03:15.400

von daher es lohnt sich hier wirklich

01:03:15.400 –> 01:03:17.000

mal zu schauen, welche

01:03:17.000 –> 01:03:18.880

Entwicklungen es gibt. Das ist das

01:03:18.880 –> 01:03:24.000

eine. Und das zweite, was ich noch mal

01:03:24.000 –> 01:03:28.000

aufgreifen wollte, war das mit diesen

01:03:28.000 –> 01:03:29.480

ganzen, gerade war dieses Beispiel da,

01:03:29.480 –> 01:03:32.320

ich habe mit der Krankenkasse

01:03:29.480 –> 01:03:33.680

telefoniert und ich war froh, dass ein Mensch auf der anderen Seite war.

01:03:33.680 –> 01:03:37.100

Was wir dabei nicht vergessen d├╝rfen und ich glaube, dass es auch nochmal ein

01:03:37.100 –> 01:03:41.360

ganz wichtiger Impact, den es geben wird, ist, sind unsere Nachfolgegenerationen.

01:03:41.360 –> 01:03:46.120

Wir gehen ja immer von uns aus. Was f├╝r uns heute selbstverst├Ąndlich ist oder

01:03:46.120 –> 01:03:50.840

vielleicht merkw├╝rdig erscheint oder wo wir das Gef├╝hl haben, da bin ich schon

01:03:50.840 –> 01:03:54.240

froh, dass da ein Mensch auf der anderen Seite sitzt und so weiter, das wird sich

01:03:54.240 –> 01:04:01.140

ganz anders gestalten mit unseren Generationen, die damit aufwachsen, dass sie gar nichts

01:04:01.140 –> 01:04:03.140

anderes kennen, in Anf├╝hrungsstrichen.

01:04:03.140 –> 01:04:07.380

Und wir sehen das ja jetzt mit diesen ganzen Social-Media-Entwicklungen und so weiter und

01:04:07.380 –> 01:04:08.380

so fort.

01:04:08.380 –> 01:04:09.380

Ich sage nicht, dass das gut ist.

01:04:09.380 –> 01:04:11.620

Da sind wir jetzt wieder bei einer Bewertung, wenn wir dann anfangen, das zu analysieren

01:04:11.620 –> 01:04:13.180

und zu reflektieren und so weiter.

01:04:13.180 –> 01:04:15.580

Das k├Ânnen wir alles machen und wir k├Ânnen das diskutieren.

01:04:15.580 –> 01:04:20.180

Nichtsdestotrotz ├Ąndert es nichts an dem Umstand, dass hier immer dann, wenn eine neue

01:04:20.180 –> 01:04:24.780

Generation am Heranwachsen ist mit neuen Tools, Techniken und so weiter, ganz

01:04:24.780 –> 01:04:29.540

andere Ansichten eben auch hat, als das, womit wir gro├č geworden sind. Und das,

01:04:29.540 –> 01:04:33.660

womit wir uns vielleicht schwer tun, damit tut sich m├Âglicherweise eine

01:04:33.660 –> 01:04:36.740

Nachfolgegeneration ├╝berhaupt nicht mehr schwer, weil das f├╝r die total

01:04:36.740 –> 01:04:40.700

selbstverst├Ąndlich ist. Wie gesagt, das kann man in Frage stellen, kann gucken,

01:04:40.700 –> 01:04:43.500

was bedeutet das gesellschaftlich, da sind wir dann auf einer anderen Ebene

01:04:43.500 –> 01:04:47.740

der Diskussion und k├Ânnen uns ├╝berlegen, was wollen wir, was wollen wir nicht. Und

01:04:47.740 –> 01:04:51.100

Das ist auch total berechtigt und auch sinnvoll, diese Diskussionen zu f├╝hren.

01:04:51.100 –> 01:04:55.860

Aber nicht per se davon auszugehen, dass so wie wir das heute erachten und sehen,

01:04:55.860 –> 01:04:59.740

dass auch die Nachfolgegenerationen das genauso erachten und sehen.

01:04:59.740 –> 01:05:02.180

Die werden das teilweise eben auch ganz anders erleben.

01:05:02.180 –> 01:05:05.180

Und damit gerne zu Sabine.

01:05:05.180 –> 01:05:09.420

Ja, mir fiel noch mal ein vierter Punkt an, und zwar war Donnerstag Feiertag

01:05:09.420 –> 01:05:13.060

und ich lag auf der Terrasse in der Sonne und hab Atlas der Entscheider

01:05:13.060 –> 01:05:17.860

und da war ein KI-Thema und das fand ich einfach so simpel dargestellt.

01:05:17.860 –> 01:05:23.800

Da war einfach ein Ablaufdiagramm und da war so eine B├╝ndelung, wo geht welche

01:05:23.800 –> 01:05:29.260

Aufgabe hin und da war einfach, okay, wenn es 100 Prozent fehlergenau, keine Fehler

01:05:29.260 –> 01:05:33.740

ist, geht es sowieso an die KI. Wenn zehn Prozent, jetzt frage ich mich nicht nach den

01:05:33.740 –> 01:05:38.540

Prozentzahlen, aber wenn zehn Prozent der Mensch, dann geht, macht es einen Umweg und

01:05:38.540 –> 01:05:43.580

noch mal kontrolliert, wie wichtig sind die 10 Prozent. Wenn das am Ende nicht,

01:05:43.580 –> 01:05:48.580

dann geht es auch an die KI. Und dann kommen die Aufgaben, wo man sagt,

01:05:48.580 –> 01:05:53.460

nee, das geht nicht an die KI. Und ich denke, das ist einfach ein Abbild, wie es

01:05:53.460 –> 01:05:56.780

zuk├╝nftig in den Unternehmen geht. Das ist die Basis f├╝r eine

01:05:56.780 –> 01:06:01.740

Unternehmensberatung, wenn die heute in ein Unternehmen reingehen und sagen, okay, was

01:06:01.740 –> 01:06:06.700

kann hier in Richtung KI gehen. Und das ist Realit├Ąt. Ich glaube, da brauchen wir auch

01:06:06.700 –> 01:06:10.580

nicht immer dar├╝ber nachzudenken. Das ist Realit├Ąt. Was ich noch sagen wollte, mir

01:06:10.580 –> 01:06:14.000

ist auch wieder der Name eingefallen, Snapchat, aber ist egal wie das Tool auch

01:06:14.000 –> 01:06:19.100

hei├čt. Ich glaube, da sind wir auch wieder als Eltern mitgefragt. Also ich bin fest

01:06:19.100 –> 01:06:22.420

davon ├╝berzeugt, bei meiner gro├čen Weise ist bei der mittleren auch schon. Die

01:06:22.420 –> 01:06:25.740

arbeiten schon mit Chat-GPT. Die haben, denke ich, schon mal Vernunft.

01:06:25.740 –> 01:06:29.100

Also sind die schon so weit. Bei dem Kleinen bin ich mir da nicht so sicher,

01:06:29.100 –> 01:06:32.420

dass man einfach mit dem auch im Gespr├Ąch bleibt und sagt, was machst du da?

01:06:32.420 –> 01:06:37.380

Wie ist das? Das finde ich aber cool. Wenn da aber einer sagt, geh nicht mit dir mit.

01:06:37.380 –> 01:06:42.620

Du hast das schon verstanden. Und da ist nat├╝rlich dann auch wieder die Frage, wie

01:06:42.620 –> 01:06:47.340

eng ist der Draht von Eltern zu Kindern? Wo k├Ânnen wir da ein bisschen, weil man

01:06:47.340 –> 01:06:52.300

muss ja mal ehrlich sein, die Kinder sind uns ja in vielen weit ├╝berlegen. Und wie

01:06:52.300 –> 01:06:56.220

will ich mit jemandem sprechen, wenn ich selbst keine Ahnung davon habe? Das

01:06:56.220 –> 01:06:59.980

wollte ich gerne noch mal sagen. Und dann das Thema Bildung nat├╝rlich. Es gibt

01:06:59.980 –> 01:07:03.660

kaum noch irgendwo einen Tag, wo man sich nicht mit Freunden trifft und wir reden

01:07:03.660 –> 01:07:07.980

├╝ber Bildung. Aber warum passiert denn nichts? Also ich bin da v├Âllig bei dir

01:07:07.980 –> 01:07:14.260

Layla und es muss das rein und wir m├╝ssen kein Wissen mehr pr├╝geln, wir

01:07:14.260 –> 01:07:18.880

m├╝ssen das anwenden. Nur auch da denke ich fast, Layla du bist da bestimmt eine

01:07:18.880 –> 01:07:23.780

r├╝hmliche Ausnahme, dass viele Kinder in dem Thema weiter sind als die Lehrer.

01:07:23.780 –> 01:07:31.300

Aber warum wird nicht oben angesetzt? Die letzte Frage ist noch, so wie ich da

01:07:31.300 –> 01:07:37.500

vorhin zugeh├Ârt habe, m├╝sse doch KI die L├Âsung unseres Fachkr├Ąftemangels

01:07:37.500 –> 01:07:41.500

sind. Nat├╝rlich sind die heute noch nicht alle an dem Level, aber ich kann die ja

01:07:41.500 –> 01:07:44.980

noch ein bisschen schlauer machen und dann habe ich doch Arbeitskr├Ąfte. Das war

01:07:44.980 –> 01:07:50.420

jetzt noch mal eine provokative Frage. Ich w├╝nsche euch also ein toller Raum.

01:07:50.420 –> 01:07:55.460

Ja, ich brauche glaube ich kein Schlusswort mehr zu sagen, weil ich fand den Raum insgesamt toll,

01:07:55.460 –> 01:08:00.020

ich fand den Ablauf toll. Das war mein Schlusswort. Ich w├╝nsche euch allen ein tolles Wochenende.

01:08:00.020 –> 01:08:05.740

Ja, super, vielen, vielen lieben Dank. Die Frage lassen wir einfach mal zum Nachwirken so stehen

01:08:05.740 –> 01:08:12.180

und damit gehen wir dann auch in die Abschlussrunde. Ich habe das verzeichnet, liebe Sabine, nehme ich

01:08:12.180 –> 01:08:19.500

gerne als Abschlusswort dann auch an und m├Âchte gerne tats├Ąchlich jetzt auch noch mal gucken,

01:08:19.500 –> 01:08:23.580

was eure Highlights aus dem Raum sozusagen sind, um dann gerne auch noch

01:08:23.580 –> 01:08:27.620

mal abzurunden und das morgige Thema entsprechend anzuk├╝ndigen.

01:08:27.620 –> 01:08:30.260

Marc, J├╝rgen Layla in der Reihenfolge bitte.

01:08:30.260 –> 01:08:34.380

Ich m├Âchte gerne noch mal polarisieren. Unser Gehirn hat auch die Moral des

01:08:34.380 –> 01:08:38.100

Programmierers, unter anderem unsere Glaubenss├Ątze und unser Umfeld und die

01:08:38.100 –> 01:08:41.660

L├Âsung f├╝r mich f├╝r all diese Dinge sind immer Hinterfragen. Wenn das

01:08:41.660 –> 01:08:45.820

hinterfragt wird, egal ob die KI das hinterfragt oder wir, dann sind wir schon

01:08:45.820 –> 01:08:48.340

damals schon ein ganzes St├╝ck weiter und der letzte Punkt, den ich noch nicht

01:08:48.340 –> 01:08:50.740

gesagt habe, KI ist ja auch unheimlich teuer.

01:08:50.740 –> 01:08:54.340

Chat GPT hat momentan Betriebskosten von 700.000 US-Dollar.

01:08:54.340 –> 01:08:58.540

Also muss uns auch klar sein, auch das Nutzen dieser KI in Zukunft

01:08:58.540 –> 01:09:01.540

wird Geld kosten und auch das ist ein anderes Thema, kann sich das

01:09:01.540 –> 01:09:03.540

jedes Unternehmen leisten und so weiter und so weiter.

01:09:03.540 –> 01:09:05.740

Es wird nicht umsonst bleiben, es wird Geld kosten.

01:09:05.740 –> 01:09:09.340

Vielen, vielen lieben Dank. J├╝rgen.

01:09:09.340 –> 01:09:14.340

Ja, danke euch allen wie immer f├╝r eure Beitr├Ąge.

01:09:14.340 –> 01:09:17.140

Ich m├Âchte mein Schlimmstes allerdings etwas vergewaltigen,

01:09:17.140 –> 01:09:21.280

dir noch mal speziell zu danken, liebe Yasemin, f├╝r die letzte Ausf├╝hrung mit dem

01:09:21.280 –> 01:09:28.180

mit dem Link auf das Szenario und Szenario vorgehen bei L├Âsung als

01:09:28.180 –> 01:09:35.300

Probleml├Âsungszyklus und ich denke, dass das Thema KI pr├Ądestiniert ist

01:09:35.300 –> 01:09:40.860

f├╝r die konstruktive Anwendung genau dieses Szenario Modells, weil es darum

01:09:40.860 –> 01:09:46.540

geht zu spezifizieren und gedankliche Konstrukte f├╝r unsere Zukunft

01:09:46.540 –> 01:09:55.740

zu gestalten, wie es sieht die derzeitige, das derzeitige Szenario, das Ist-Szenario unter

01:09:55.740 –> 01:10:04.660

dem Einfluss heute schon von KI aus im Gegensatz zu dem erwarteten Szenario, um daraus dann schlie├čen

01:10:04.660 –> 01:10:13.020

zu k├Ânnen auf das gew├╝nschte Szenario und dar├╝ber als gro├če Metaebene irgendwann abgeleitet aus den

01:10:13.020 –> 01:10:19.060

Vor- und Nachteilen, die wir heute aus dem Ist-Szenario abgeleitet haben, das utopische

01:10:19.060 –> 01:10:26.260

Szenario. Insofern fand ich diese Verbindung mit Szenario, Szenario-Modell absolut treffend.

01:10:26.260 –> 01:10:32.020

Herzlichen Dank, sch├Ânen Samstag und vielleicht bis morgen, das steht bei mir noch offen.

01:10:32.020 –> 01:10:35.260

Ja, gro├čartig. Vielen, vielen Dank, Layla.

01:10:35.260 –> 01:10:44.820

Ja, also mir geht es so, dass ich sehr viele Fragezeichen habe, aber daf├╝r weniger Ausrufezeichen.

01:10:44.820 –> 01:10:51.340

Das finde ich schon mal sehr sch├Ân. Ich merke, dass man die Zukunft manchmal wie ein Wahrsager

01:10:51.340 –> 01:10:58.380

voraussehen sollte, muss, will und das vielleicht gar nicht kann. Aber das ist auch gut so. Und zum

01:10:58.380 –> 01:11:03.100

Schluss m├Âchte ich noch mal Bertolt Brecht aus “Der gute Mensch” von C├ęgeuns zitieren, weil ich finde,

01:11:03.100 –> 01:11:04.780

Das passt gerade sehr gut.

01:11:04.780 –> 01:11:07.460

Wir stehen selbst entt├Ąuscht und sind betroffen.

01:11:07.460 –> 01:11:09.580

Den Vorhang zu und alle Fragen offen.

01:11:09.580 –> 01:11:11.260

Ich freue mich auf weitere R├Ąume.

01:11:11.260 –> 01:11:12.780

Danke f├╝rs Zuh├Âren.

01:11:12.780 –> 01:11:15.340

Ja, gro├čartig. Vielen, vielen lieben Dank.

01:11:15.340 –> 01:11:19.500

Ja, und abschlie├čend m├Âchte ich gerne auch noch mal sozusagen zusammenf├╝hren

01:11:19.500 –> 01:11:22.460

und noch mal eines festhalten, n├Ąmlich wir.

01:11:22.460 –> 01:11:24.340

Also zum einen finde ich es wunderbar.

01:11:24.340 –> 01:11:27.500

Layla, wenn ganz viele Fragezeichen da sind, dann ich sage es ja immer wieder.

01:11:27.500 –> 01:11:31.500

Wenn Fragezeichen da sind, dann sind wir ins Gr├╝beln, ins Denken gekommen.

01:11:31.540 –> 01:11:34.300

Und das bedeutet, dass wir die M├Âglichkeit er├Âffnet haben,

01:11:34.300 –> 01:11:37.460

sozusagen hier nochmal Gedanken zu sortieren,

01:11:37.460 –> 01:11:40.980

in die Reflexion zu gehen, nachwirken zu lassen

01:11:40.980 –> 01:11:43.900

und vielleicht auch neue Antworten, neue Optionen zu entdecken,

01:11:43.900 –> 01:11:47.580

neue Antworten zu finden f├╝r uns oder auch alte Antworten zu bekr├Ąftigen.

01:11:47.580 –> 01:11:52.060

Auch das ist ja durchaus eine M├Âglichkeit, eine Option, die wertvoll und wichtig ist.

01:11:52.060 –> 01:11:57.260

Und ich m├Âchte noch mal ganz kurz an diesen Punkt mit andocken,

01:11:57.260 –> 01:11:59.220

weil es jetzt mehrfach heute auch gesagt wurde,

01:11:59.220 –> 01:12:03.220

Wir k├Ânnten im Grunde genommen ein riesen Dachthema zur KI allein schon machen.

01:12:03.220 –> 01:12:05.580

Ja, habt ihr recht. Vielleicht kommt das auch irgendwann mal.

01:12:05.580 –> 01:12:07.940

K├Ânnen wir ja mal schauen, wie sich das so weiterentwickelt.

01:12:07.940 –> 01:12:11.900

Mein Ansinnen unter diesem Dachthema Pioniergeist mit Hirn ist tats├Ąchlich

01:12:11.900 –> 01:12:13.860

jetzt mal die Zusammenh├Ąnge aufzuzeigen.

01:12:13.860 –> 01:12:16.940

Und ihr werdet in den n├Ąchsten Tagen und Wochen einfach sehen.

01:12:16.940 –> 01:12:21.780

Im Grunde genommen werden wir vielleicht ein St├╝ck weit auch durch die Medien

01:12:21.780 –> 01:12:27.300

getrieben, sozusagen immer wieder mit unserem Fokus auf etwas Bestimmtes gelenkt.

01:12:27.340 –> 01:12:30.820

Aber letztendlich geht es um das Verstehen der Zusammenh├Ąnge.

01:12:30.820 –> 01:12:38.420

Es ist eben nicht die KI oder es ist nicht die Blockchain oder es ist nicht VR oder was wei├č ich was,

01:12:38.420 –> 01:12:44.500

die die Ver├Ąnderung hier im Einzelnen betrachtet, herbeif├╝hren wird und zwar in dieser Potenzierung,

01:12:44.500 –> 01:12:51.660

sondern dieses Zusammenspiel dieser Technologien, die im Hintergrund ├╝ber viele Jahre schon gelaufen sind.

01:12:51.660 –> 01:12:56.180

Heute sehen wir die ersten Ergebnisse daraus, die jetzt f├╝r uns auch sp├╝rbar werden.

01:12:56.180 –> 01:13:01.500

Und wir haben eine Idee davon bekommen durch die Anwendung, in welche Richtung es vielleicht

01:13:01.500 –> 01:13:04.980

gehen k├Ânnte oder was es noch alles k├Ânnen wird in Zukunft.

01:13:04.980 –> 01:13:08.780

Und das wird auch kommen, viel schneller, als wir uns das teilweise vorstellen k├Ânnen.

01:13:08.780 –> 01:13:14.780

Und umso wichtiger ist es eben auch, die Zusammenh├Ąnge, also nicht nur die KI im Einzelnen zu betrachten,

01:13:14.780 –> 01:13:20.420

sondern hier die technologischen Entwicklungen, die stattfinden, zusammen zu betrachten und

01:13:20.420 –> 01:13:27.220

in der Kombination zu denken, um zu realisieren, was sich ver├Ąndern wird und gleichzeitig auch die

01:13:27.220 –> 01:13:31.900

Potenziale f├╝r uns zu entdecken. Und das ist nochmal etwas, was ich gerne abschlie├čend auch

01:13:31.900 –> 01:13:36.300

nochmal unterstreichen m├Âchte. Damit sind wir heute Morgen n├Ąmlich eingestiegen. Das hei├čt,

01:13:36.300 –> 01:13:42.100

wir neigen ja dazu, weil es immer unser Gehirn denkt nat├╝rlich automatisch an Existenzsicherung.

01:13:42.100 –> 01:13:45.780

Was bedeutet das f├╝r uns? Wollen wir das ├╝berhaupt? Und so weiter und so fort. Und

01:13:45.780 –> 01:13:49.660

diese Fragestellungen sind auch berechtigt und sie haben auch ihren Raum und sie d├╝rfen auch

01:13:49.660 –> 01:13:54.340

ihren Platz finden. Gleichzeitig, wir denken ja h├Ąufig in entweder-oder-Konstellationen,

01:13:54.340 –> 01:14:01.420

ist es jetzt wichtig, immer wieder unseren Fokus ganz bewusst zu steuern auf, was bedeutet das f├╝r

01:14:01.420 –> 01:14:06.420

mich? Was bedeutet die KI f├╝r mich? Wo kann ich sie tats├Ąchlich heute schon nutzen, einsetzen,

01:14:06.420 –> 01:14:10.660

Potenziale entfalten und so weiter? Und die gleiche Fragestellung d├╝rft ihr euch dann in

01:14:10.660 –> 01:14:14.940

den n├Ąchsten Tagen stellen, wenn wir ├╝ber Blockchain, ├╝ber Digitalisierung, ├╝ber was

01:14:14.940 –> 01:14:20.940

wei├č ich was sprechen, ohne den Aspekt der gesellschaftlichen Ebene auszulassen oder der

01:14:20.940 –> 01:14:25.900

volkswirtschaftlichen Ebene. Auch dar├╝ber k├Ânnen wir gerne diskutieren. Wir d├╝rfen aber uns

01:14:25.900 –> 01:14:33.020

disziplinieren, immer wieder nicht zu sehr ausschlie├člich aus der einen Perspektive oder

01:14:33.020 –> 01:14:38.660

Brille zu gucken, n├Ąmlich aus dieser Sorgenbrille, sondern auch aus der Potenzialbrille. Und wenn ich

01:14:38.660 –> 01:14:44.940

den “Wof├╝r kann ich es einsetzen, wof├╝r kann ich es f├╝r mich nutzen?” auch mit betrachte,

01:14:44.940 –> 01:14:53.060

dann kann ich eben heute auch schon ganz gewaltige Dinge damit machen, die ja mein Potenzial

01:14:53.060 –> 01:14:57.980

vervielfachen, vertausendfachen an der Stelle. Ob das jetzt KI oder andere Tools oder die

01:14:57.980 –> 01:15:02.340

kombinierte Version dieser Tools ist, ist mal erstmal dahingestellt. Das muss dann jeder f├╝r

01:15:02.340 –> 01:15:07.500

sich auch nochmal selbst pr├╝fen. Und Anwendungsbereiche gibt es genug. Heute habe ich

01:15:07.500 –> 01:15:12.260

einen Link dabei, wo ihr es eben mit einsetzen k├Ânnt, zum Beispiel auch, um ein Buch zu

01:15:12.260 –> 01:15:17.860

schreiben. M├╝sst ihr nicht, k├Ânnt ihr machen. Ist f├╝r jeden eine individuelle Entscheidung.

01:15:17.860 –> 01:15:23.940

Ich kann euch nur empfehlen, euch mit diesen Themen wirklich intensiv zu befassen, denn

01:15:23.940 –> 01:15:28.340

und das ist das, was ich eingangs heute Morgen gesagt habe, wir neigen dazu, linear einfach

01:15:28.340 –> 01:15:33.200

zu denken. Das ist das, was unser Gehirn kann. Wir haben Schwierigkeiten damit, in der Potenzierung

01:15:33.200 –> 01:15:37.120

zu denken. Was hier aber jetzt passiert, ist durch diese ganzen technologischen

01:15:37.120 –> 01:15:42.760

Entwicklungen einzeln genommen und dann in der Kombination betrachtet, ist

01:15:42.760 –> 01:15:47.880

wirklich eine Beschleunigung, eine Potenzierung hoch, ich wei├č nicht wie

01:15:47.880 –> 01:15:50.960

viel. Das k├Ânnen wir uns gar nicht vorstellen, das kann unser Gehirn

01:15:50.960 –> 01:15:55.520

nicht leisten. Das ist so ├Ąhnlich wie der Zinseszinseffekt. H├Âren wir immer

01:15:55.520 –> 01:16:00.560

wieder, h├Ârt sich toll an, aber im Grunde genommen geht unser Gehirn nicht rein.

01:16:00.560 –> 01:16:02.920

Nein, das Rechnen h├Ârt irgendwo einfach auf.

01:16:02.920 –> 01:16:04.720

Also da sind wir linear unterwegs.

01:16:04.720 –> 01:16:07.600

Und hier haben wir eine Potenzierung, die jetzt stattfindet.

01:16:07.600 –> 01:16:12.640

Ich habe nicht die M├Âglichkeit, mich jetzt zur├╝ckzulehnen und zu sagen, ich beobachte

01:16:12.640 –> 01:16:15.240

das oder ich mache das erst in einem Jahr.

01:16:15.240 –> 01:16:21.200

Ich darf jetzt wirklich gucken und erkennen, welche M├Âglichkeiten es gibt, wie ich das

01:16:21.200 –> 01:16:26.160

f├╝r mich einsetzen kann, um hier in eine Potenzierung reinzugehen, um nicht das Gap

01:16:26.160 –> 01:16:30.320

jetzt ganz gro├č werden zu lassen und das nicht als Negativszenario, sondern wirklich,

01:16:30.320 –> 01:16:36.080

Es wird schwierig f├╝r jeden von uns, hier aufzuholen, weil Lernen braucht Zeit.

01:16:36.080 –> 01:16:40.320

Und wenn ich diese Zeit jetzt an mir vorbeistreichen lasse, der eine vielleicht drei Monate, der

01:16:40.320 –> 01:16:43.960

andere sechs Monate, der andere ein Jahr, vergesst bitte nicht, dass wir Menschen haben

01:16:43.960 –> 01:16:48.480

auf diesem Markt, die schon seit Jahren diese Technologien f├╝r sich nutzen und einsetzen.

01:16:48.480 –> 01:16:53.360

Und dementsprechend ist es umso wichtiger, dass wir jetzt immer wieder auch uns die Frage

01:16:53.360 –> 01:16:55.680

stellen, was ist der Nutzen f├╝r mich?

01:16:55.680 –> 01:16:57.120

F├╝r was kann ich es einsetzen?

01:16:57.120 –> 01:16:58.680

Wie kann ich es einsetzen?

01:16:58.680 –> 01:17:03.160

Und das ist mein Ansinnen, mit diesen R├Ąumen jetzt wirklich die n├Ąchsten Tage und Wochen

01:17:03.160 –> 01:17:08.080

diese Zusammenh├Ąnge aufzuzeigen, deswegen immer wieder die Reduktion der Komplexit├Ąt

01:17:08.080 –> 01:17:13.820

auf ein Themengebiet pro Raum sozusagen, um dann eben die Verkn├╝pfung herzustellen und

01:17:13.820 –> 01:17:17.880

dann die entsprechenden Diskussionen hier zuzulassen, f├╝r euch den Raum aufzumachen,

01:17:17.880 –> 01:17:21.800

in die Reflexion zu gehen und angelehnt daran, Entscheidungen zu treffen.

01:17:21.800 –> 01:17:27.280

Und diese Entscheidungen nicht zu vertagen auf “irgendwann mal”, sondern so schnell

01:17:27.280 –> 01:17:30.440

wie m├Âglich einfach mal loszulaufen und Erfahrungen zu sammeln.

01:17:30.440 –> 01:17:34.040

Ich glaube, darum geht es, Erfahrungen zu sammeln, auszuprobieren,

01:17:34.040 –> 01:17:37.160

Fehler zu machen und aus den Fehlern wieder auch zu lernen.

01:17:37.160 –> 01:17:39.120

In diesem Sinne. Vielen, vielen lieben Dank.

01:17:39.120 –> 01:17:40.520

Wir haben heute etwas ├╝berzogen.

01:17:40.520 –> 01:17:43.400

Seht es mir nach. Aber ich glaube, es lag einfach auch an dem Thema.

01:17:43.400 –> 01:17:45.960

Ich bin gespannt, wie es die n├Ąchsten Tage weitergeht.

01:17:45.960 –> 01:17:49.560

Morgen haben wir jetzt erst mal das Autoren-Fr├╝hst├╝ck mit Janik Gest├Âr.

01:17:49.560 –> 01:17:51.000

Da freue ich mich auch total drauf.

01:17:51.000 –> 01:17:53.600

Morgen um acht. Ihr seid herzlich eingeladen, mit dabei zu sein.

01:17:53.600 –> 01:17:55.720

Und zwar geht es um Ich bin so frei.

01:17:55.760 –> 01:17:59.080

raus aus dem Hamsterrad, rein in den richtigen Job.

01:17:59.080 –> 01:18:01.760

Und das wird auch noch mal unter dem Dach “Pioniergeist mit Hirn”

01:18:01.760 –> 01:18:03.360

ganz spannend, diese Fragestellung.

01:18:03.360 –> 01:18:05.160

Was ist denn ├╝berhaupt der richtige Job?

01:18:05.160 –> 01:18:07.360

Was ist denn ├╝berhaupt der Job der Zukunft?

01:18:07.360 –> 01:18:08.920

In Anf├╝hrungsstrichen und, und, und.

01:18:08.920 –> 01:18:11.480

All diese Fragen, um die wird es morgen gehen.

01:18:11.480 –> 01:18:12.640

Ich bin total gespannt.

01:18:12.640 –> 01:18:15.720

Ihr seid herzlich eingeladen und ich kann euch versichern,

01:18:15.720 –> 01:18:16.720

es wird spannend.

01:18:16.720 –> 01:18:19.800

Also insofern versucht mit dabei zu sein, wenn ihr es zeitlich schafft.

01:18:19.800 –> 01:18:21.160

Bis dahin. Ciao.

3 Myths Debunked ÔÇô When Science Creates Knowledge! | Dr Yasemin Yazan

When Science Creates Knowledge!

Unfortunately, there is a lot of false knowledge on the market. Be it because, for example, research results are misinterpreted or false causalities are made, or because they are transferred to other contexts that were not even the subject of the study.

We pick 3 myths and show what science already knows:

- Why Maslow's hierarchy of needs is not a reliable basis for motivation

- Why personality tests are questionable as a basis for personnel decisions

- Why a quota is needed as an effective measure against Unconscious Bias

Data Protection Declaration

Declaration Of Consent

Congratulations - your download is waiting for you in your mailbox!