Kategorien:

#Personlichkeitsentwicklung

17.08.2023

K.I. mit unseren Werten in Einklang bringen: Risiken und Gefahren erkennen

Künstliche Intelligenz (KI) ist auf dem Vormarsch und beeinflusst zunehmend unseren Alltag. Doch welche Risiken und Gefahren birgt diese Technologie? 

In diesem Webinar werden wir uns mit ethischen und moralischen Fragen im Zusammenhang mit dem Einsatz von KI auseinandersetzen und diskutieren, wie wir KI mit unseren Werten in Einklang bringen können.

Im Webinar behandeln wir, unter anderem, folgende Punkte:

  • Fairness: Wie können wir gewährleisten, dass die Entscheidungen, die von KI-Systemen getroffen werden, nicht diskriminierend sind und auf gerechten Grundlagen beruhen?
  • Wir werden die potenziellen Gefahren von KI-Systemen aufzeigen und diskutieren, welche Auswirkungen diese auf verschiedene Lebensbereiche haben könnten, wenn sie nicht fair sind.
  • Transparenz: Wieso ist es wichtig, dass KI-Entscheidungen nachvollziehbar und erklärbar sind?
  • Wie können wir verhindern, dass KI-Systeme zu einer undurchsichtigen "Black Box" werden?
  • Verantwortung und KI: Wer ist verantwortlich dafür, dass KI-Systeme Fehler machen? Für welche Herausforderungen gibt es für eine Lösung?

Diese Fragen werden wir im Laufe des Webinars anhand von zahlreichen praktischen Beispielen erörtern, um Ihnen einen klaren und greifbaren Einblick in die Thematik zu geben. 

Nach diesem Webinar werden Sie einen neuen Blick auf die Künstliche Intelligenz haben, egal ob Sie sie in Ihrem eigenen Leben erleben oder in Ihrem Unternehmen einsetzen.

Transkript

Ja ein herzlich guten Morgen zusammen. Herzlich Willkommen in der Onlineakademie bei ein Webinar von Swiss Made Marketing. Ich schau auch gleich im Chat. Ich sehe hier eine gute Morgen von Frank aus Thüringen. Technik? Okay. Meister sagt auch Technik und Bild. Okay, freut mich sehr. Ich bin heute im Homeoffice und dann ist immer doch auch ein bisschen mehr spannend, ob alles dann richtig funktioniert. Aber ich bin froh, dass sie mich dann hören und sehen können. Klaus geht noch einen guten Morgen aus Fellburg. Michael gibt auch ein Gruß aus dem zurück warmen Rheinland. Ja, hier ist der Technik glaube ich auch besser. Das Wetter ist ziemlich schwitzig und da ist und ich freue mich schon wieder auf den Winter. Aber ich bin auch eher so ein Wintermensch als ein Sommermensch, glaube ich. Guten Morgen auch Klaus und Bernhard. Es gibt noch ein Gruß aus Bremen. Ähm, ja und da sind noch viele anderen auch da. Ich sehe ja noch einen Gerald, Sebastian, Carmen, Manfred, Frank, Andrea, einen ganz schönen Morgen Und entschuldigen Sie mir, wenn ich die Namen übersehen habe, aber ich bin wirklich froh. Sie sind allen dabei und Sie sind wieder in eine schöne Gruppe zusammen. Ja, wir sprechen heute über das Thema künstliche Intelligenz. Und wir machen es. Ob es nicht immer viele Webinare zum Thema künstlichen Intelligenz, wie sie mit unseren Tools wie Copy Cockpit arbeiten können, mit den künstlichen Intelligenz, wie sie in ihren Alltag, in ihrem Marketingalltag unterstützen kann. Aber wir machen auch so jeden Monat ein Webinar, wobei wir eigentlich so einen größeren Ausblick haben wollen über das Thema künstlichen Intelligenz wir mehr uns das anschauen wollen. Okay, was bedeutet das eigentlich für zum Beispiel unsere Gesellschaft? Was bedeutet das? Welchen Impact hat es auch nicht nur für uns, wenn wir künstliche Intelligenz in unserer Firma nutzen, aber auch, wenn wir vielleicht als Kunde die künstlichen Intelligenz Erfahrung bei anderen Firmen, bei unserer anwenden? Was bedeutet die künstliche Intelligenz eigentlich? Und ja, das ist das Thema, das Webinar Thema von heute. Ich zeige dann auch gleich meine Folien dazu. Also das sollten Sie jetzt sehen müssen sehen können. Ich möchte das noch auf meinen anderen Schirm verschieben und ich öffne den Chat noch. Also wenn Sie dann während des Webinar noch etwas reinkippen, vermutlich auch noch ein Auge darauf zu haben. Ja, und, ähm. Künstliche Intelligenz. Das Thema von heute ist, wie sie die KI oder wie wer wir zusammen als Gesellschaft die KI mit unseren Werten in Einklang bringen können. Welche Gefahren sind da? Welche Risiken gibt es da also wirklich? Ein etwas größeres, breiteres Thema als nur, wie Sie KI in Ihrem Marketing Alltag nutzen können und wieso? Ja, wir befinden uns wirklich mitten in einem vierten industriellen Revolution. Wir hatten einen ersten großen industriellen Revolution. Wenn wir so Wasser und Dampfkraft erfunden hatten, so Ende des 18. Jahrhunderts, dann so Beginn 20. Jahrhunderts ist die Massenproduktion gekommen. Das hat dann wirklich einen großen, großen Einfluss auf der Gesellschaft, wie wir arbeiten. Und so Mitte 20. Jahrhunderts, also ja 50, 60 Jahren her, ist die Automatisierung gekommen mit IT und Elektrik, Elektrotechnik. Und heute passiert auch so viel künstliche Intelligenz. Eigentlich nur eines davon. Wir machen auch viel mit Robotik, 3D Druck, Big Data, Internet der Dinge, Genom, Editierung. Ja, es ist wirklich so eine Verschmelzung der physischen, digitalen und biologischen Welt. Also was jetzt alles passiert ist wirklich wir einen industriellen Revolution und wir Marketing haben gesagt, ja, wir finden es eigentlich auch wichtig, dass sie mehr darüber erfahren. Wir möchten auch so ein bisschen denken bei Ihnen anstoßen. Also deshalb machen wir dann auch noch etwas mehr zum Thema KI. Und ja, ich fange an mit einer Aussage von einem Film. Ich war selbst ein Teenager. Wenn diesen Film zum erste Mal in ins Kino war und ich kann mich noch erinnern, wie beeindruckend das war, um so auf diesen Riesen schirm, diesen riesigen Dinosaurier zu haben, die wie spannend und schrecklich das eigentlich war, wie eigentlich es auch war. Also das ist von der Film Jurassic Park. Keine Ahnung, ob sie es auch derzeit gesehen haben, ob es ihnen auch beeindruckt hatte. Aber was ich da eine schöne Aussage von ist ja, das sagt einer. Eine der Hauptcharaktere von diesem Film sagt ja Sie, also die Wissenschaftler waren so sehr damit beschäftigt, ob sie können oder nicht. Und dann geht es darüber, ob sie die Dinosaurier wieder zum Leben erwecken könnten. Also sie waren so sehr damit beschäftigt, ob sie können oder nicht, dass sie nicht einmal darüber nachdachten, ob sie sollten. Also da in diesem Film waren Sie so sehr beschäftigt. Können wir diesen Dinosaurier wieder zum Leben bringen? Sie haben überhaupt nicht darüber nachgedacht. Ist das eigentlich etwas, was wir machen sollen? Und diese Aussage trifft eigentlich auch zu. Jetzt auf die künstlichen Intelligenz Entwicklungen. Auch da beschäftigen vielen sich damit. Okay, was können wir alles mit dieser künstlichen Intelligenz? Können wir die Grenze weiter anstoßen? Können wir das noch mehr machen lassen? Aber auch da ist eigentlich eine Frage Ja, beschäftigen wir uns auch damit? Ja. Sollten wir das alles eigentlich machen? Sollen wir diese Entwicklungen machen und wenn ja, in welche Richtung? Sondern wir da noch einiges beschränken? Eine Grenze, eine Sicherheitsmaßnahme einbauen oder nicht? Das ist eigentlich das Thema von heute. Und wie gesagt, ja, so einmal im Monat machen wir einen größeren Ausblick. Also diese dieses Webinar ist da eine Serie. Wir sind jetzt. Dann sprechen wir über Ethik und Moral. Aber ich werde versuchen, das nicht kompliziert oder schwierig oder langweilig zu machen. Und ja, wir haben schon in den letzten Monat auch gesprochen über die Geschichte von KI. Wie hat die KI sich entwickelt? Und in die nächsten Monate schauen wir uns auch noch Politik und Gesetze an Ein Überblick über die KI Landschaft und Zukunftsvisionen. Also das ist noch alles, auch was wir für sie geplant haben. Aber jetzt ist das Thema Ethik und Moral. Und vieles habe ich genommen von diesem Buch. Ich habe das Buch schon öfter gezeigt. Es hat wirklich einen großen, großen Vielfalt an Inhalte. Und ja, das heißt eigentlich ja. Wie können wir die künstlichen Intelligenz, auch die die Werte, die wir als Menschen haben, können wir das beibringen? Ich Ich möchte noch auch dabei sagen die Folien können Sie auch später im Mitgliederbereich herunterladen. Also Sie können jetzt eigentlich einfach es Ihnen gemütlich machen und zuhören. Und wir möchten aber gerne auch noch später etwas im Chat zusammen besprechen. Ja. Und was wir heute besprechen werden, ist. Ja. Wieso sollen wir uns eigentlich beschäftigen mit moralische Fragen zu KI, zu KI? Und dann werden wir drei verschiedene Aspekte uns anschauen. Aber das werde ich jetzt nicht vorlesen, weil dann verrate ich schon zu viel. Ja, warum sollten wir uns beschäftigen mit moralischen Fragen? Wieso sind die moralischen Fragen eigentlich für uns von Bedeutung? Wieso können wir einfach nicht sagen okay, wir lassen die Leute einfach das weiterentwickeln, schauen was, was die KI alles kann und das ist mega und großartig und wir verwenden das. Wieso habe ich dann heute dieses Webinar für sie gemacht? Wieso sollten wir uns damit beschäftigen? Und ja, ich fange dann eigentlich ziemlich impact for an mit dieser Folie. Und das ist ja die KI. Das kann wirklich buchstäblich eine Frage über Leben und Tod sein. Und hier haben wir einen Fall in 2018. So ist ein paar Jahren her, aber eigentlich auch noch nicht so lange her und da war einen selbstfahrenden Auto. Also die wird dann auch gesteuert von künstlicher Intelligenz. Und diese selbstfahrendes Auto hatte eine Fußgängerin angefahren und dabei auch so sehr verletzt, dass sie sie getötet hatte, die Straße überquert hat. Und ja, man kann auch sagen okay, ja war ein Unfall. Unfall passieren, einfach im Verkehr passieren, da wo Autos, Autos die Straße benutzen. Aber hier haben sie dann Ermittlungen gemacht. Und das Schreckliche war eigentlich, die KI hat diese Person nie als Fußgängering klassifiziert, weil diese Fußgängerin hatte einen einen Straße überquert, aber sie hat das gemacht auf einen Ort ohne selber Streifen. Und die KI hat immer gelernt Ja, die Fußgänger gehen nur eine Straße zu überqueren, nur eine Straße, der eine Zebrastreifen gibt. Also hier war eigentlich eine Situation, die wäre aus Menschen, würden wir diesen Auto stoppen und würden wir selbstverständlich sehen. Okay, das ist eine Fußgängering. Sie ist, sie überquert die Straße. Aber die KI hatte hier ja eigentlich überhaupt nicht gesehen, nicht erfahren, das nicht als Ergebnis gesehen, dass es eine Fußgängerring war. Es hatte da keine Zebrastreifen gegeben Und ich denke nur diesen Fall, dass wir sagen okay, es kann wirklich so über Leben und Tod gehen, macht es, dass wir uns ein bisschen mehr mit KI beschäftigen sollen und wie es dann ist, mit Sicherheit und andere Sachen dabei. Und ja, wir sind dann auch eigentlich so, wenn wir uns das mehr philosophisch anschauen, eigentlich auch aufpassen, dass wir uns nicht in einer Welt wiederfinden, in der wir uns einschränken müssen, noch wie die KI funktioniert, Also dass wir nicht nur das machen, was die KI verstehen kann. Nein, eigentlich wollten wir, dass die KI unverstellt und dann auch das so macht das ja, dass das alles sicher und gut geht. Genau. Also vielleicht sagen sie Ja okay, das war doch einige Jahre her. Das hat sich mittlerweile weiterentwickelt. Immer wenn es eine Vertonung gibt, dann, dann geht das auch mit mit negative Sachen, mit schreckliche Sachen vielleicht, Aber dann kommt es doch auch wieder Besseres. Aber heute möchte ich Ihnen noch verschiedene Beispiele zeigen, die ja öffentlich dann auch bei Ihnen das Denken anregen. Hier habe ich noch ein paar Fakten, da werde ich eigentlich nicht so weit reingehen. Aber ich dachte auch, das ist doch eigentlich gut, wenn wir über Ethik sprechen, dass sie sich davon bewusst sein. Und ja, wussten Sie das eigentlich, wenn wir die KI bedienen, auch wenn wir unsere eigenen Kopcockpit zu bedienen? Die Computer brauchen viel Energie, aber sie brauchen auch viel Wasser, weil die großen Server, die müssen immer gekühlt werden. Das hat einen großen Energie und Kühlungsbedarf. Und hier sagt dann auch eine Aussage. Ja, Sprachmodelle wie z. Typekit die verbrauchen besonders viel Wasser und jemand hat da eine Untersuchung gemacht und hat gesagt Ja, wenn wir damit arbeiten, dann brauchen wir eigentlich schnell mal einen halben Liter Wasser. Also ja, wenn wir dann allen uns Mühe machen, Energie zu sparen mit die steigende Energiepreise, mit Klimawandel und was dann auch. Aber wir gehen einfach voll los auf diese Sprachmodelle, auf das Nutzen von künstlicher Intelligenz Ist vielleicht auch doch gut, immer zu schauen okay, welche was ich jetzt mache? Die Befehle, die ich jetzt eingebe. Brauche ich das auch wirklich oder kann ich da dann eigentlich doch auch noch etwas Energie sparen? Dann einen zweiten Punkt, wovon ich mich eigentlich gar nicht bewusst war, weil was ich nur erfahren habe, wenn ich dann die Vorbereitung für dieses Webinar gemacht haben. Ist das auch eine riesen Menge an Klickarbeit hinter all diese künstlichen Intelligenz Modelle steckt. Weil zum Beispiel auch bei die Bilderkennung, aber auch über die Sprachmodelle vieler Labels. So viele Beschriftungen werden zuerst eingegeben von Menschen. Und das ja ist dann oft eigentlich auch outsourced. Mach andere Länder und hier ist dann einen Artikel in time war das wo dann beschrieben würde wie einen riesen Firma in Kenia in Afrika eigentlich Klickarbeit macht. Sie müssen dann Bilder anschauen. Waren auch wirklich schrecklich schreckliche Bilder, die wirklich auch einen toxische Inhalte hatte. Ich werde nicht hier beschreiben, was dann genau, aber für wirklich wenig wenig Geld waren sie einen ganzen Tag da am Klicken und das alles ja so, dass wir dann einen künstlichen Intelligenz Modell nutzen können. Auch da kann man sich Fragen stellen. Und Urheberrecht ist dann auch noch so eine ethische Frage, weil ja wenn Künstler protestieren vielleicht und sagen Hey, jetzt können die künstlichen Intelligenz gratis machen, Was wir before vorher machte, können wir auch sagen Ja, aber das ist doch Innovation. So geht die Welt einfach weiter. Das ist doch genau gleich. Wenn die Fotografie erfunden war, dann haben die Maler auch gesagt Ja, die Fotografie ist ist nicht zu einem guten Kunst oder so und ja, das können wir alles sagen. Aber hier bei künstlicher Intelligenz gibt es doch auch mehr und mehr Gedanken, das eigentlich schon Arbeit von Künstler, von Autoren, von Maler, von Fotografen verwendet würde, ohne dass Urheberrechte bezahlt würden. Und auch verschiedene Presseorgane vermuten, dass wirklich ihre Artikel, die eigentlich hinter einer Bezahlschranke waren, schon aus Trainingsdaten verwendet würden. Und auch da kann man sich dann ethische Fragen stellen. Also das sind nur so drei, drei Punkte. Wir können hier noch eine größere Auflistung machen, die ich Ihnen schon mitgeben möchten, aber eigentlich möchte ich jetzt noch. In andere Punkte eingehen. Und die Frage ist eigentlich ja. Wenn Sie selbst einen künstlichen Intelligenz entwerfen möchten, was? Was wäre Ihnen dann wichtig? Also was? Was würden wir uns als Menschen, als Gesellschaft eigentlich idealerweise von der künstlichen Intelligenz wünschen? Vielleicht können wir sagen Ja, wir möchten, dass es eine Energieeffizienz hat. Wir möchten, dass es die Urheberrechte respektiert. Aber vielleicht können Sie ja im Chat noch einiges reintippen, um zu sehen. Ja, das wäre mich eigentlich wichtig, wenn wir einen idealen künstlichen Intelligenz entwickeln würden als Gesellschaft. Und tippen Sie gern etwas im Chat rein? Und der Massa hat schon etwas angegeben, aber ich warte noch. Äh. Ein wenig, was weiter noch reinkommt. Bevor ich dann das verrate, was Emma sah und ihr nachher dann auch reingeschrieben haben. Ja, vielleicht können sie noch etwas. Etwas. Einfach ihre ihre Gedanken. Es gibt ja auch kein richtig oder falsch. Nein, es ist einfach wichtig, sich Gedanken zu machen. Was wäre mich wichtig bezüglich der künstlichen Intelligenz? Und Marco hat geschrieben Ja, mir ist wichtig, dass der Mensch Mensch bleibt und ich denke ja, das ist auch eine Wert, die mir wichtig wäre. Renate sagt noch erkennbar das KI im Spiel ist, also das wir ich ich denke nur meinst das wir wissen, jetzt spreche ich nicht mit einem Mensch. Aber ist das wirklich von einem KI erstellt oder. Ja das ich das ich weiß wenn ich mit einem KI zusammenarbeit oder nicht. Andreas Impuls an die ich gar nicht denke. Bernard sagt noch wir Missbrauch vermeiden, aber wie? Also das sind wirklich alle auch gute gute, ja Anregungen, gute Bemerkungen. Ich habe hier auf die nächste Folie hab ich drei Punkte reingeschrieben und Ursula sagt auch noch Aufklärung und schon in der Schule, dass auch junge Leute schon in der Schule lernen, was die gefahren sind. Klaus sagt Ich möchte gerne Unterstützung, habe Zeitersparnis, Transformation. Renate sagt nur als Zusatz weil ich muss den eigenen Kopf weiterhin benutzen. Genau so, ich glaube, jetzt habe ich. Ja alles gelesen. Und Micha sagt noch Ja, eine Unterstützung in vielen Bereichen, aber die transparent ist und bleibt, ohne dass die KI eigenständig weitergeht. Genau. Und ich habe auf die nächste Frage habe ich einfach drei Wörter, drei Themen aufgeschrieben. Und Sie möchten eigentlich sagen Ja, wir wollen eigentlich, dass die KI fair ist und was das alles genau bedeutet. Dazu kommen wir. Wir möchten auch, dass die KI transparent ist, also auch etwas, was, was einige von ihnen im Chat genannt haben. Und wir möchten auch, dass die KI einem ja das, dass es eine Verantwortung hat, außer dass wir in zu Verantwortung halten können. Und zum Vernetzt können wir zum Beispiel auch daran denken. Es sind eigentlich Ergebnisse von Sky. Korrekt? Und sagt das Modell überhaupt voraus, was wir annehmen oder was wir denken, das es macht? Und verwenden wir einen KI Modell für den Zweck, wofür es beabsichtigt war? Und zu Transparenz können wir denken fragen Ist es eigentlich klar, wie das Modell zu seinen Ergebnissen kommt? Ist es klar, welche Trainingsdaten verwendet werden? Sind Wissen und Macht nicht nur bei einer Handvoll Unternehmen konzentriert und zu verantworten? Können? Wir denken an Fragen wie Wie gehen wir um mit Ungewissheit? Wer ist verantwortlich? Ist es dann eine Maschine oder eine Mensch? Also auch bei diesem Fall, von diesem Autounfall können wir auch sagen Ja, wir. Wer waren dann eigentlich verantwortlich? Der der Mensch? Die, die an die KI gearbeitet hatte? Oder war das Auto verantwortlich? Aber wenn dann eine KI oder ein Auto verantwortlich ist, wie geht das dann? Wie geht es dann weiter? Und ja, ist eigentlich der Mensch auch die beste moralische Autorität? Auch wir Menschen machen nicht immer alles auf die beste Art und Weise. Und ja, ich möchte eigentlich so in die nächste Zeit von unserem Webinar in diese drei Punkte weiter reingehen und das dann auch mit Beispiele zeigen. Beispiele, die nicht so schön sind, aber auch Beispiele, die Hoffnung geben, dass wir das als Gesellschaft auch im Griff bekommen. Genau. Und wir fangen an mit das Thema Fairness, also Fairness im Gebrauch und in den Ergebnissen von KI Systeme. Und wir fangen an mit etwas. Das ist eigentlich ja so eine Art wie ein Spiel. Das ist ein KI Modell, das würde schon in 2013 entwickelt. Also das ist ein in einem frühen Sprachmodell und dann einige Jahre nachher haben Wissenschaftler dann einige Untersuchungen gemacht und sie haben eigentlich auch so ein bisschen hin und her gespielt mit diesem Modell. Und dieses Sprachmodell erkennt dann, wie alle Sprachmodelle so Muster im Text. Und wenn man dann im Text hat, kann man eigentlich so auch wie ein bisschen Mathematik so Eingaben geben. So, wenn man dann zum Beispiel sagen würde China und Fluss, dann kommt daraus das ist die Yangtse. Und wenn wir sagen okay, wenn ich dann Paris nehme, aber ich mache minus Frankreich und plus Italien, vielleicht raten Sie, dann schauen, was da rauskommen wird. Also Paris, die Hauptstadt von Frankreich. Aber wenn wir das dann verwechseln für Italien, kommen wir auf Rom. Und wenn wir sagen Ja, Sushi minus Japan und plus Deutschland, ja, was würde da dann rauskommen? Vielleicht können Sie noch etwas im Chat tippen. Ich warte kurz noch. Klaus sagt schon Sauerkraut. Auch schön. Aber in diesem einen Burgers hat Renate in diesen. Ein Käppi. Iglu. Okay, das muss ich ja mal ausprobieren. Wenn ich nächste Mal in Deutschland bin war. Das kenne ich eigentlich überhaupt nicht. Aber in diesem Sprachmodell ist dann innen Bratwurst herausgekommen. Und wenn man sagt Ja, okay, König minus Mann plus Frau, dann kommt da Königin. Aber die Wissenschaftler haben dann auch etwas weiterregiert und haben dann gesagt okay, wenn Erz Arts minus n plus Frau würden wir sagen okay, das ist dann eine Ärztin, aber dann ist da eine Krankenschwester gekommen. Und wenn wir das Beispiel hatten von Ladenbesitzer, Mann plus Frau, wenn wir sagen Ja, das ist dann Ladenbesitzerin, aber dann ist Hausfrau herausgekommen. Und eigentlich, wenn Sie so weitere Beispiele gemacht haben, haben Sie gesehen okay. Hm, eigentlich ist dieses Sprachmodell doch ziemlich sexistisch. Und ja, vielleicht sagen Sie dann okay, ist doch einfach ein Sprachmodell. Können wir ja doch auch ein bisschen lustig darüber machen. Macht das alles nicht so schwer und kompliziert. Aber wenn es dann in die reale Welt benutzt wird, ja, dann hat es wirklich doch auch reale Auswirkungen. Zum Beispiel Amazon hatte in 2014 einen KI im Einsatz und sie haben diese Geräte benützt für die Überprüfung von Stellen bewerben. Und das haben sie gemacht mit einem Sprachmodell auf einem anderen Sprachmodell, als ich auf die vorherige Seite gezeigt habe. Aber das haben sie dann basiert auf Lebensläufen von früheren Bewerbern. Und das Problem war dann, dass mit diesem Modell war die KI darauf trainiert, um Männer zu bevorzugen, und das bedeutete also viel. Es war hier in Amerika, in den USA, da hat es auch zum Beispiel noch Hochschulen für Frauen. Und wenn jemand dann eine Frau sich beworben hat bei Amazon war also nach so einer Hochschule gegangen, dann würde es überhaupt nicht weiterkommen, weil ja, die KI hatte das nicht in einem Beispiele, weil sie hatte so eine Menge an Daten von Männern, das war dann nicht hervorgekommen. Und ja, die Amazon hatte das dann herausgefunden und sie hatte dann einige korrigieren und gemacht, aber sie haben dann gesehen ja, korrigieren ist doch wirklich mega schwierig, weil auch was man im Freizeit macht ist unterschiedlich und das steht dann auch so in einem Lebenslauf. Also Leute, die zum Beispiel dann Fußball spielten. Freizeit hatte dann eine höhere Chance einen Job zu bekommen bei Amazon als Leute, die zum Beispiel gerne keine Ahnung basteln oder malen, also was also auch wieder männlich und weiblich ist und das konnte man dann auch wieder korrigieren und ist dann schon schwierig. Aber auch dann, was immer noch so bei Wörter wie Adjektive, also Männer würde er schreiben in einen Lebenslauf. Ich habe das ausgeführt, ich habe da Anleitung gegeben oder was dann auch so eigentlich schon schon die Sprache ja macht diesen KI so, dass das eigentlich Männern bevorzugt werden. Und wenn wir hier dann auch schauen, wir haben so einige Statistiken. Blau ist dann die Prozent Ansatz in die verschiedenen Big Tech Firmen die man sind und rot ist hier. Frau Ja dann sehen wir, die Frauen sind dann doch noch ein wenig dahinten und wenn wir dann so diese KI Modelle benützen, dann wird das doch schwierig um das zu einen gleichen Stand zu bringen. Und schlussendlich hat Amazon dann auch in 2017 gesagt okay, dass das funktioniert nicht mit diesem KI. Wir stellen das wieder ab und wir machen das wieder von Hand. Menschen wir dann einfach die Stellen bewerben wieder beurteilen. Also das ist eigentlich dann so um zu zeigen ja was wir in die Sprachmodellen haben, was es da an Sexismus gibt, das kann wirklich auch eine Auswirkung auf die reale Welt haben. Und das gleiche mit Rassismus hier. Ja, eine Folie ist wirklich auch schrecklich. Schon 2015, so auch schon einige Jahre her, hatte Google eine Funktion ermöglicht, dass Fotos automatisch beschriftet würden. Also wenn man ein Flugzeug hat, dann wird sagen ich habe ein Flugzeug. Und konnte man eine Kategorie von Flugzeuge anschauen. Wenn man Autos hat, konnte man Kategorien von Autos in die eigene Fotobibliothek zusammenbringen. Aber was dann eigentlich schnell herausgekommen ist, das dann anhand die Hautfarbe von verschiedene Leute würde auch Personen zum Beispiel als Gorilla eingestuft und ja selbstverständlich von Google das wirklich schrecklich, dass das passiert ist. Sie haben das dann angepasst, aber sie konnten das eigentlich nur anpassen durch diese Beschäftigung von Hand abzuschalten. Und das bedeutet dann auch, wenn sie wirklich im Zug hängen würden und Sie werden da wirklich Gorillas fotografieren im Tierpark, dann wird es auch einfach nicht die Beschäftigung Gorilla geben, weil dies Beschäftigung ist überhaupt von Hand abgeschaltet. Und das bedeutet eigentlich ja, wir haben hier, wir haben hier eine zugrunde liegende Problem der KI. Und auch hier habe ich noch einen anderen Beispiel. Wenn Sie sagen Jap. Foto. Okay, kommt das? Passiert das mal? Es hat auch Rassismus, aber auch das hat wirklich wieder einen großen Einfluss auf das Leben der Menschen. Ich habe hier einem Beispiel von einem KI Software, die verwendet würde in USA. Das wird im Rechtssystem von mehreren Bundesstaaten eingesetzt und in diesem System. Ja, das war nun schon verwendet. Und dann haben Wissenschaftler gesagt Ja, aber haben wir das eigentlich gut validiert? Haben wir das eigentlich auch gut evaluiert? Und da kann man sagen Ja, wenn wir so ein System. Beurteile möchte. Ja. Gibt es dann die richtigen Vorhersagen und sind diese Vorhersagen nicht verzerrt? So, bei diesem System war es so, dass man ein Profil von einer Straftat eingeben könnte und anhand davon würde dann einem potenziellen Rückfallrisiko eingestuft, eine Bewertung gegeben und anhand davon würde dann gesagt okay, man sollte diese Person festhalten oder man sollte diese Person auf Kaution freilassen gehen und dann warten wir so bis zum Strafprozess. Und aus dieser Forschung kam dann vorher Ja, es gab hier. Eigentlich richtig ein Vorhersagen, aber das ist alles dann auch ziemlich noch kompliziert mit Statistik und Probabilistik. Und wir hier haben sie dann eigentlich herausgefunden, einem falsch, positiv und einem falschen Negativ. Die Vorhersagen sind dann wirklich unterschiedlich, je nach Rasse. Und das bedeutet, wenn wir einen Person mit einer kaukasischen Hautfarbe hatten, dann würde das öfter falsch positiv eingestuft. Und dann würde oft eher gesagt okay, diese Person kann freigelassen werden gegen eine Kaution in Abweichung von seinem Strafprozess, obwohl ja diese Person eigentlich einen größeren Risiko hat, um wieder einen straff zu gehen. Einen Rückfallrisiko hat er größer und das falsch. Negativer war dann eigentlich schlimmer bei Leuten von einem nichtkaukasischen Hintergrund. Also das war dann öfter eingestuft, als dass die Leute dann nicht gegen Kaution freigelassen werden, aber wirklich im Gefängnis gehen sollten. Und ja, das ist dann eigentlich ein Problem. Und die Frage ist ja, wie können wir so ein Problem beheben? Weil man kann auch sagen okay, dann wären wir eigentlich Rasse oder Hautfarbe oder was dann? Auch wenn wir nicht mehr als Eingabe in diesem Modell haben. Aber eigentlich ist das auch keine gute Option, um so etwas zu löschen, weil ja genau wie wir gesehen haben bei diesem Amazon Modell, um Leute, die einen Job suchen, zu bewerten. Auch da können wir sagen okay, wir nehmen Mann oder Frau nicht mit, aber es hat dann einfach noch so viele korrelierte Merkmale in einem Modell, wo wir da auch gesehen haben, die Hochschule, die die Freizeit, Sachen die man macht, andere Wörter, die man benutzt auch das hat man dann so in so einem Modell, in einem Rechtssystem Modell und dann, wenn man dann so etwas wie Rasse oder Hautfarbe rausnimmt, dann kann man das auch nicht mehr korrigieren und dann wird es noch mehr ein Blackbox. Ja so, die Frage ist wie Was machen wir dann außer um diese korrelierte Merkmale? Das nennt man dann im Fachjargon die redundante Codierungen. Genau. Und eigentlich, was diese Beispiele zeigen, ist die KI Ergebnisse. Die sind ein Spiegelbild unserer Gesellschaft, weil die Voreingenommenheit, die die KI zeigt, diesen Sexismus, diesen Rassismus, das ist unsere eigene. Und das bedeutet, dass in diesem Modell werden Daten benutzt, die verzerrt sind, also die zwei. Nichts davon haben schon Sexismus oder Rassismus. Und dadurch werden wir die KI mit unseren eigenen Vorurteilen kalibrieren. Oder aber oft ist auch uns das und die Daten sind verzerrt. Aber auch oft gibt es einfach einen Mangel an Daten. Also es sind oft weniger Daten verfügbar über bestimmte Personengruppen. Und wenn es dann auch weniger Daten gibt, dann wird die KI auch schlechtere Vorhersagen machen. Und was dann auch noch dazu kommt ist, dass oft bei KI Modellen die werden auch nie gut evaluiert, die werden auch nie gut validiert. Aber wenn so ein Modell einmal funktioniert, einmal im Einsatz ist. Also wenn ein Modell einmal entwickelt ist, dann so einem voreingenommen System hat das Potenzial, um wirklich weitreichende Auswirkungen zu haben. Aber wenn es dann einen STANDARD wird in der Praxis, dann wird die Verzerrung allgegenwärtig. Und oft, wenn man Modelle nutzt, fragt man sich auch gar nicht mehr okay, welche Trainingsdaten liegen hier zugrunde? Sind die die Daten, die Modelle wirklich gut validiert? Wirklich gut evaluiert hat es auch einen guten Menge an Trainingsdaten? Gibt es da keine Verzerrungen? Gibt es keine Mangel für bestimmte Personengruppen. Also all diese Fragen fragen wir uns gar nicht mehr und das Modell geht einfach weiter und gibt mehrere Einsätze und so, ja, so verbreitet sich dann auch diese Verzerrungen und diese Voreingenommenheit. Und wenn sie dann auch mal sehen, ja, dass jemand sagt, eine Firma sagt oder den Eigentümer von einem Modell sagt okay, mein System ist 99 % genau, fragen Sie sich dann auch Ja, aber was ist dann genau und für wen ist es dann genau? So, hier habe ich noch einen Beispiel von einem Modell der Gesichtserkennung und schon in 2007 haben da dann einige Recherchen gemacht. Und dann hat es sich herausgebracht, dass eigentlich 77 % der Gesichter in diesem Datensatz waren männlich und 83 % der Gesichter waren weiß. Aber in 2015, so acht Jahre später. Dann war das Problem noch immer gleich. Und wenn wir jetzt auch die Modelle uns anschauen werden, dann gibt es auch noch immer hin diese Probleme. Und dass das bedeutet einfach, hier hat keiner keine Verzerrungen, aber einfach nur, dass es weniger Daten gibt für bestimmte Gruppen bedeutete, dass die Fehlerquote war von nur 3 % bei hellhäutigen Männern. Und dann kann man wirklich sagen okay, das System ist 99 %. Genau. Aber bei dunkelhäutigen Frauen war die Fehlerquote 34 % und das bedeutet dann einfach, wenn sie von so einem System abhängig sind, um ihr Handy zu öffnen, um sich zu identifizieren, also zum Beispiel auch noch in der Pandemie Zeiten. Und das ist wirklich nicht weit weg. Da müssen Studenten Prüfungen machen auf dem Rechner und dann hat es auch so diesen Gesichtserkennungssoftware um zu schauen, okay, die Person, die die diese Prüfung macht, ist das wirklich den richtigen Person. Aber wenn sie dann nur einen 66 % Chance hat, dass es ihnen gut erkennen wird, dann hat man gleich schon ja schon extra Stress und das wird dann wirklich auch die Leistungen für eine Prüfung beeinflussen. Also ja, wir würden sagen Training starten sollten wirklich alle Personengruppen, da auch eine gute Mengen an Daten haben. War einfach hier. Das ist nicht fair und wir möchten, dass die KI fair ist. Also das zum Thema Fairness, dann möchte ich jetzt weitergehen zu einem zweiten Thema. Und das ist Wissen, wie die Ergebnisse zustande kommen. Also das hat mit diesem Thema Transparenz zu tun. Und dazu möchte ich Ihnen schon zuerst noch eine Folie hier zeigen. Vielleicht wissen Sie das nicht. Ich wüsste das überhaupt nicht. In unserem Marketing Alltag haben wir vielleicht schon oft Mühe mit dem mit dem Datenschutzgrundverordnung, dass wir sagen okay, ja, ist so mühsam, wir haben all diese Regeln, müssen wir darauf achten. Aber was hier zum Beispiel noch über die KI steht, ist, dass wenn die KI über sie entscheidet, haben sie das Recht zu erfahren, wie die Entscheidung getroffen wurde. Jetzt ist das dann diesen Text geworden. Also wenn Sie einen Darlehen fragen, bei einem Bank, eine Hypothek Anfrage bei einem Bank oder wenn Sie etwas anderes machen wir eine Firma und Ihre Anfrage wird beurteilt von einem KI, dann können Sie einfach die Firma Frage um, um die Entscheidung zu erklären, und Sie sollten auch in der Lage sein, um einen Rückfrage zu führen und um weitere Erklärungen dazu zu fragen. Eigentlich, wenn die EU an dieser Datenschutzgrundverordnung gearbeitet hat, wurden sie das etwas mehr stark machen, aber die technische von die die technischen Firmen haben dann gesagt, Ja, es ist wirklich schön europäischem Parlament. Es ist wirklich schön, dass sie etwas in einem Gesetz haben wollen, aber es geht einfach nicht. Wir können das einfach nicht. Wir wissen einfach nicht, wie die KI zu Entscheidungen kommt. Und es gibt auch keine technischen Möglichkeiten, um das weiter zu erklären. Die EU hat dann schlussendlich hier im Gesetz etwas weniger stark aufgeschrieben, als sie ursprünglich wollten. Aber es ist doch auch eine krasse Aussage, dass sie technisch einfach gesagt haben beide KI, Es ist einfach eine Blackbox. Wir wissen nicht, wie die KI zu Entscheidungen kommt und auch dazu wieder ein paar Beispiele. Hier auch noch eine Aussage, also auch wirklich die technischen selbst hier haben wir eine Aussage von Der CEO von Google. Er sagt auch ja, es reicht nicht zu wissen, ob ein Modell funktioniert. Wir müssen wirklich auch wissen, wie es funktioniert. Und hier habe ich einem Beispiel, einem Beispiel von einem Krankenhaus und da im Krankenhaus wurden Sie eigentlich ein Modell erstellen, weil sie sagten, wir haben im Jahr haben wir eine jede Menge Patienten mit einer Lungenentzündung und ein Teil dieser Gruppe, die des Patienten mit Lungenentzündung, die können eigentlich ganz gut zu Hause behandelt werden, außer wir bekamen Medikamente mit. Wir senden sie zu Hause. Sie werden da sich wieder erholen. Wir haben dann vielleicht noch übers Telefon oder auf andere Art und Weise den Kontakt. Aber ein Teil der Patienten muss auch wirklich unbedingt im Krankenhaus bleiben, weil sie brauchen weitere Beobachtungen, Brauche weitere Unterstützung und im Krankenhaus Sie nun eigentlich wissen ja wie können wir die Patienten so einstufen, dass wir wissen, diese Patient kann hingehen und da hat es wirklich auch keine Risiken, keinen Gefahren und diese Patient soll im Spital bleiben und dann haben sie eigentlich so verschiedene Gruppe gemacht und eine Gruppe hat dann so einen Fließdiagramm erstellt. Also wirklich einfach mit ein paar Entscheidungsfaktoren und anhand von wie dann durch diesen Fließdiagramm gegangen ist, war dann die Entscheidung diese Patient mit Lungenentzündung nach Hause gehen oder diese Person Patient im Krankenhaus bleiben. Und sie haben dann auch das gleiche gemacht für einen Komodell und schlussendlich haben sie entschlossen, um diesen regelbasierten Modell einzusetzen und nicht das Komodell. Und ich möchte Ihnen gerne erklären wieso. Und das hat alles mit Transparenz zu tun, weil dieses regelbasierte Modell, das war wirklich transparent und lesbar, also die Ärzte konnte wirklich verstehen, okay, dieser Patient hat das in diesem Fall fließt er so durchs Diagramm, dann weiß ich auch, dieser Patient hat diese Risiken dieser positiv Sachen. Ich ich verstehe, wie sie euch zu dieser Entscheidung kommen und eine Art Grund, sondern auch bewusst abweichen davon. Aber bei die KI. Ja, obwohl es wirklich trainiert würde mit Daten von 15.000 Patienten gab es dann auch wenn sie es weiterhin getestet haben, dann ein falsches Ergebnis. Und das war Patienten, die schon Asthma hatten, also Asthmatiker, die dann auch noch eine Lungenentzündung dazugekommen waren. Ihr hat dann gesagt Ah ja, diese Patienten können einfach nach Hause gehen. Aber das war wirklich lebensbedrohend. Wenn man das in Echtzeit machen würde. Und was wären im Fall diese Patienten? Würde normalerweise immer auf einem Intensivstation aufgenommen, aber irgendwie war es in die Trainingsdaten der KI so eingestuft. Sie waren nicht auf einer normalen Abteilung im Spital. Also ich hab gedacht, sie gehen dann nach Hause und das konnte man dann selbstständig korrigieren. Also sie haben das dann in eine KI auch korrigiert, dass diese Art von Patienten auf dem Intensivstation gehen würde, also im Spital. Aber man hat sie dann gesagt, Ja, wir haben diesen Fehler herausgefunden, wir haben das korrigiert, aber wir wissen einfach nicht, was noch weiter im Modell ist, was wir eigentlich hätten korrigieren müssen. Und deshalb vertrauen wir nicht darauf und benützen wir so einen einfachen, regelbasierten Modell. Und ja, wir haben uns das Beispiel angesehen von diesem Rechtssystem in USA. Auch da kann man eigentlich sagen, statt einen KI zu nutzen, statt einen Algorithmus zu nutzen, auch da können wir einfach ein regelbasierten Modell erstellen, können wir auch einen Fließdiagramm machen. Zum Beispiel können wir sagen okay, wenn die Person so viele Vorstrafen hat oder wenn diese Person so viele Jahre alt ist und männlich ist, dann werden wir ihn verhaften und sonst kann er freikommen. Gegen Kaution und so einem viel Raum ist viel mehr transparent. Jeder kann es verstehen, Man kann es auch richtig gut erklären und man hat dann nicht zu einem Blackbox wie die KI ist. Und die Frage ist dann auch ja, sollten wir eigentlich überhaupt diese große oder komplexe Modell verwenden? Und dann müssen wir schauen Ja okay, wo? Wo sind wir Leute eigentlich gut, wo sind wir Menschen? Gut und wo ist die KI gut? Und wir Menschen sind wirklich gut darin zu wissen, worauf zu achten ist. Also auch wenn man wieder zum Beispiel von einem Spital geht, wenn man einen Arzt fragen würde was sind die? Ja die Sachen, worauf man achten muss bei eine bestimmte Krankheit, dann kann ein Arzt sehr gut sagen okay, das sind die drei oder fünf Sachen, worauf man achten muss. Aber was, wenn Menschen dann nicht so gut machen? Ist dann den Link mit den Daten zu machen? Also die Computer sind wirklich viel viel besser als wir in die Datenverarbeitung und die Statistik. Nun beide komplexe Modelle. Ist es eigentlich gut noch zu realisieren? Ja, oft sind wirklich nur wenige Eingaben wirklich wichtig und das hat auch damit zu tun. Weniger habe wirklich einen Impact, aber auch in die Daten gibt es oft noch kleine Fehler, falsche Messungen oder was dann auch. Aber wirklich sind nur wenige Eingaben wirklich wichtig und es ist dann auch eigentlich funktioniert es immer oft sehr, sehr gut, um einfach einen Experte oder eine Gruppe von Experten zu fragen Was sind die Sachen, die wirklich wichtig sind? Worauf ist zu achten, das aufzulisten und dann einen Computer zu fragen? Okay, wenn ich diese Sachen habe, worauf ich achten muss und ich habe diesen Daten, erstelle mir die mir dann zu einem Punktesystem, zum Beispiel, was ich in einem Fließdiagramm nützen kann, weil dann kann ich validieren und optimieren. Und so kann man zum Beispiel in Spital auch sagen für bestimmte Herzkrankheiten frage die Achse, worauf man achten muss, benütze dann Daten und Computer, um so zu schauen, wie machen wir zum Beispiel einen Punkten Zählung oder so, damit wir dann richtig auch Patienten in guten Risikokategorien einstufen können. So meistens ist ein großes oder ein komplexeres Modell auch nicht die Lösung. Nein, frag doch immer Kann können wir das nicht einfacher oder besser machen mit zum Beispiel ein einfaches Fließdiagramm? Und ja, wie können wir. Eine Frage ist dann auch wie können wir die Modelle überhaupt mehr transparent machen? Und dazu gibt es drei verschiedene Möglichkeiten. So eine Möglichkeit ist, dass man eine Art von Wärmekarte machen kann. Und dabei kann man dann so hervorheben, worauf ein Modell achtet. Und so kann man eigentlich die Sinnhaftigkeit überprüfen und das heißt auf Englisch dann Alliance. Und ein Beispiel dafür ist die KI wird auch viel benützt in die Krebserkennung, in die Bilderkennung und da hat man so mit diese Wärmekarte auch herausgefunden, weil die Bilderkennung von Hautkrebs konzentriert sich nicht wie früher Modellen nicht auf auf den Haut, aber auf ein Lineal. Neben der Haut war auch da was, oft gefüttert mit Daten von gesunden Haut. Das war dann einfach ein Foto von jemand auf einem Büro zum Beispiel. Aber wenn es dann Bilder waren von Hautkrebs, war dann oft auch ein Lineal dabei, um messen zu können, wie groß die Flächen von dem Hautkrebs waren. Und dann hat man herausgefunden Eigentlich schaut die KI überhaupt nicht auf den Haut, aber schaut. Gibt es eigentlich einen linear zunehmenden Bild oder nicht? Und dann verstehen wir auch schon Ja, das macht keinen Sinn. Da macht das Modell nicht, was wir denken, das es gemacht hat. Und dann sollten wir hier wieder daran arbeiten, dass das Modell das doch richtig macht. Eine andere Art und Weise ist Ja, auf Deutsch würde man sagen, So ein Faltung auf Englisch ist, dass die Confusion die Komposition. Und da würde es dann die Neuronen verstärken, die bereits am aktivsten waren. Das ist auch wieder eine Art von Visualisierung, die helfen kann, um Trainingsfehler zu finden und zu korrigieren. Also auch da, wenn man dann die Gesichtserkennung hat und es würde 50-jährigen weißen Mann Männer hervorheben, dann wissen wir auch okay, da wissen wir, dass unsere Trainingsdaten nicht einem guten guten Abspiegelung der Gesellschaft sind. Und eine dritte Möglichkeit ist, dass wir einfach eine moderne Output liefern lassen, dass das ist auch bekannt aus Multitasking lernen. Und auf diese Art und Weise können wir Modelle auch schneller trainieren, aber sie erreichen auch eine höhere Genauigkeit und sie sind auch mehr Transparenz. Und das ist, was uns jetzt zu diesem Thema wichtig ist. Und wenn wir in diesem Beispiel wieder von die Lungenzündung hatte, dann hatten wir zum Beispiel nicht nur diesen KI fragen können Sag mir, sollte dieser Patient nach Hause gehen oder soll er im Krankenhaus bleiben? Nein, er hat es mir auch sagen können. Okay, mach mir zum Beispiel eine Einschätzung von der Kosten, eine Behandlung oder mach mir eine Einschätzung von der Dauer vom Krankenhausaufenthalt und dann kann man auch schon sehen, dann würde man, wie die Intensivpatienten auch sehen, okay, wir haben höhere Kosten, die haben einen langen Dauer. Da ist dann etwas falsch, wenn sie heim gesendet würden. Genau so, es gibt wirklich auch Möglichkeiten, um die Modelle mehr transparent zu machen, mit Visualisierungen, mit mehr Output. Die Frage ist dann jedoch benützen die Firmen, benützen die Organisationen, die diese Modelle entwickeln, Benützen sie das dann auch, um die Modelle mehr transparent zu machen, um sie evaluieren und validieren zu können? Und dann noch eine Frage Ja, was passiert eigentlich, wenn die Wahrheit nicht die Wahrheit ist? Also hier habe ich wieder ein ziemlich altes Beispiel, aber nur als Gedankenspiel. Das war die frühere Beispiele von der Bilderkennung. Und hier war das eine Modell, die Bilder in diese zehn Kategorien einstufen. Außer man kommt zum Beispiel sagen ist ein Flugzeug ist ein Auto, ist einem Vogel ist eine Katze usw und so fort. Aber es konnte wirklich nur in eine dieser zehn Kategorien einstufen. Und dieses Modell würde wieder trainiert mit einer Menge an Trainingsdaten und die Trainingsdaten würden immer von einer Kategorie. Ähm, ja, von Hand eigentlich eingegeben. Und das hat dann auch freiwillige Leute gemacht. Auf meine kleine Burg. Das ist ein Amazon Plattform, wo man etwas Geld verdienen kann für Jobs wie zum Beispiel diese. Aber wenn zum Beispiel dann diese Leute vom Hund immer Löwenbabys als Katzen identifiziert hatten, dann würde einfach in diesen Trainingsdaten ein Modell reinkommen. Es ist eine Katze und dann würde das Modell einfach sagen ein Löwe, Baby. Was wir vielleicht sagen würde, ist ein Löwe Baby, es ist eine Katze und so würde das eigentlich einen neuen Art von Wahrheit. Und wir können uns auch fragen ja, was wird eigentlich passieren bei so einem Ideal, wenn wir einen Bild angaben, was überhaupt nicht in eine dieser zehn Kategorien passt? Und auch das ist noch eine Frage bei die Modelle heutzutage auch so, wenn wir ein Modell trainieren und wir haben hier einen schönen Beispiel von einem Kuh könnte so einem Bild sein, was hier in der Schweiz aufgenommen ist. Wir haben hier so schön grünes Gras, ein bisschen Wald im Hintergrund, einen schönen gefleckten Kuh mit solidem rot weiß. Hier haben wir noch eine Kuh in Stall mit auch wieder diesem Flecken hier. Schwarz weiß könnte zum Beispiel in den Niederlanden sein. Und wenn wir unsere Kinder nur trainieren mit Bilder von Kühe, die so aussehen. Aber wir kommen dann später mit einem Bild von dieser Unterfangen der KI. Ja, was ist das dann? Wenn wir jetzt zum Beispiel sagen ja, es ist ein Kamel, weil ja, ich sehe hier Sand, das ist wahrscheinlich eine Wüste. Ich sehe auch keine Flecke, es ist nur so einfarbig. Es ist eine Kamel. Und eigentlich möchten wir da haben, was die KI sagt. Hmmmm, ja, in diesem Fall ist eigentlich ein wenig schwierig. Ich bin mir auch nicht genau sicher, aber es könnte ein Cameo sein. Das Problem bei der KI ist eigentlich ich gehe da zu schnell. Das Problem bei der KI ist, dass die KI. Keine Unsicherheit angibt. Ich sage einfach, es ist eine Kuh, es ist ein Kamel und wir wissen nicht, mit welcher große, hohe Chance. Ist es dann wirklich ein Kuh oder ist es wirklich ein Kamel? Und dazu kommen wir ja dann zum letzten Teil von diesem Webinar. Und das geht es darum, um Ungewissheit und Korrumpierbarkeit. Also eigentlich möchten wir beide KI haben, dass wenn ein Modell einen eine Maß von Ungewissheit hat, dass es uns auch sagt und auch, dass wir korrigieren können, damit wir damit dann auch verantwortliches Handeln ermöglichen. Und ich habe da ein Beispiel. Das ist das älteste Beispiel hier von diesem Webinar. Das spielt in 1983 und das spielt in Russland und denkt sie sich ein. In 1983 waren wir mitten im Kalten Krieg. Wir hatten den Mauer noch. Also es war wirklich, wirklich einen ängstlichen Streit zwischen Russland und dem Westen. Und es war hier im Russland und da gab es einen Sturm, ein Alarm also die Sirenen heulten und das System hat gesagt ja, einen ballistischen Interkontinentalrakete aus den USA ist im Anflug. Und das System hat dann einen Befehl gegeben, die eigenen Raketen zu starten. Und dieser, dieser Herr Stanislaw Petrow. Wenn Sie später die Form herunterladen, können Sie drauf klicken und noch ein Interview mit ihm auf den BBC auf Englisch herunterladen. Und ja, er war so in dieses Zentrale und er dachte ja, irgendwie stimmt etwas nicht. War das System heute. Es hat gesagt, da kommen Sirenen, da kommen USA Raketen. Also wir müssen selbst unsere eigenen Regetzer lancieren. Aber irgendwie hatte er gedacht Ja, ja, hier stimmt etwas nicht. Ihr könnte das noch nicht so gut argumentieren, was dann genau stimmt. Aber ihr dachte ja, hier stimmt etwas nicht. Er musste dann seinen seinen Chef informieren und sagen Ja, sollen wir wirklich die Rakete lancieren oder ist es ein falscher Alarm? Und er hat dann schlussendlich entschieden Es ist ein falscher Alarm. Und in diesem Interview sagt er dann Ja, es war wirklich die schwierigste Minuten meines Lebens, weil ich hatte diesem vor, aber ich war auch nicht sicher. Es war vielleicht zu einem 50 50 % Chance, dass ich Recht hatte, aber vielleicht auch nie. Und, ähm. Ja, das waren wirklich nur angespannte Minuten. Aber schlussendlich hatte er recht und sein Bauchgefühl war eigentlich. Ja, wenn die USA ein Angriff haben würde, dann würden sie eigentlich nicht nur mit ein paar Raketen kommen. Dann würden sie mit einer ganzen Menge an Raketen kommen. Und das war eigentlich das, was nicht stimmte, was ein Bauchgefühl gefüttert hatte. Und schlussendlich war es tatsächlich auch ein Stimmfehler, weil das Sonnenlicht würde von den Wolken reflektiert und das System hatte das so interpretiert, als dass es einen Raketenanflug gehabt hätte. So zum Glück war hier noch ein Mensch und hat auch geschrieben hatte im Chat am Anfang von Webinar. Zum Glück hatte er auch noch auf seinem Bauchgefühl auf seinen Kopf vertraut. Und zum Glück war hier auch noch ein Mensch dazwischen. Da können sie sich eindecken. Wenn er einfach die Systeme gefolgt hatte und Russland die Rakete gemacht hatte, dann war die Geschichte wirklich anders gegangen, als wie sie jetzt gegangen ist. Also die Frage ist dann auch ja was? Was machen wir, wenn ein System, also einen künstlichen Intelligenz, einem Modell einen Fehler macht? Weil eines ist, was wir mit Sicherheit wissen Die Systeme werden auch mal Fehler machen und die Probleme mit unserer KI mit die Modelle der Systeme nicht nur falsche Urteile fällen, aber dass sie das auch tun mit einem unverschämt höheren Selbstvertrauen. Und die Frage ist ja, wie gehen wir damit um? Was sollten wir da machen? Und auch da kann man die Systemen so programmieren, so erstellen, dass man zum Beispiel sagt Ja, wir können großen Schäden durch ein System vermeiden. So eine Möglichkeit ist, dass wir sagen Ja, wir halten immer noch Möglichkeiten offen, also dass wir sagen KI, du darfst Entscheidungen treffen, du darfst auch Schlitten gehen, aber du musst immer noch Möglichkeiten offen halten. Also du solltest nichts machen, was unumkehrbar ist. Oder wenn du etwas macht und du findest es später heraus als falsch, dann sollte es nur etwas sein, was du machen kannst, was du auch wieder aufräumen kann. Also zum Beispiel, wenn ich einen Teller fallen lasse in der Küche, kann ich das auch wieder aufbauen, einen neuen Teller kaufen und bei. Die Unumkehrbarkeit habe ich hier in diesem Bild von einem Spiel gemacht. Vielleicht kennen Sie so eine Art von Spiel. Man muss die Boxen irgendwo bringen, aber man kann die Boxen nur verschieben, man kann sie nicht ziehen und da muss man immer auch 18 Ich ich so das nicht in eine Ecke bringen, dann kann ich es nicht weiter mehr verschieben. Also auch so wie eine Art von diesen Spells. Also die KI eigentlich ja denken und handeln, was man dann auch herausgefunden hat. Es macht auch Sinn, um die KI dann eigentlich noch ergänzende Ziele zu geben. Also wenn ich zum Beispiel sage KI handle für mich in Aktien und mache einen großen Gewinn, aber ich gebe zum Beispiel auch noch einen ergänzenden Ziel, um zu sagen, ich muss immer noch eine bestimmte Menge an Kapital haben, damit ich auch noch später in die Rente gehen kann. Dann würde die KI auch nicht unumkehrbare Sachen machen, zum Beispiel alles auf eine Aktie investieren, die dann pleite geht und dass man alle Geld verliert, außer es hat da auch die KI Möglichkeiten. Eine andere Möglichkeit ist zu sagen ja, ich möchte eigentlich wissen KI, wie sicher bist du? Und da hat man eigentlich lange gesucht. Haben die Techniker auch lange gesucht? Wie können wir das machen? So eine Idee war wir können einem Modell verschiedene Male. Etwas durchlaufen lassen mit eine gleiche Eingabe und dann schauen wir was in die Schiene Ausgabe und anhand von. Wie unterschiedlich das ist, wissen wir dann, wie sicher dieses Modell ist. Aber das kostet viel Zeit und es kostet dann auch eine riesen Mengen an Daten. Und das, ja, das ist dann doch eigentlich auch nicht praktisch. Aber was man dann herausgefunden hat ja, wir können eigentlich so damit arbeiten, dass wir. Ähm, verschiedene Neuronen ausschalten. Und wir machen jedes Mal eine andere zufällige Menge von Neuronen. Damit sparen wir dann auch Zeit und Daten können dann mehrere Male in diesem Modell durchlaufen und wir können das dann vergleichen. Also diese Art und Weise heißt Drop out oder Ausstiegen auf Deutsch. Und damit haben wir dann, ja, können wir die Ergebnisse vergleichen. Und dann haben wir Aufschluss über die Unsicherheiten. Und seine Dummies. Dieses Beispiel haben von diese Bilder von einer Kuh und einem Kamel. Dann würde es zum Beispiel sagen, es ist eine Kuh. Anormal. Sie sind ein. Und dann wissen wir okay, die KI ist eigentlich nicht sicher darüber. Und was wir auch noch machen können, ist, dass wir sagen Ja, wir sollten die KI so gestalten, dass die Auswirkungen verhindert werden. Und das ist eigentlich was für Menschen, aber oft auch Roboter schon machen. So, da ist ein Beispiel über ein selbstfahrendes Auto. Wenn das Auto dann unsicher ist. Außer diesem Beispiel, womit denn wir angefangen sind, jemand überquert. Aber ist nicht auch die Zebrastreifen denn dann unsicher ist, kann man sagen okay, da muss das Auto langsamer fahren. Also wenn es dann doch noch zu einer Kollision gibt, dann ist die Impact einfach weniger. Also es hat wirklich auch Möglichkeiten. Möglichkeiten, die wirklich technisch auch möglich sein, um die Schäden von einem System zu vermeiden oder zu verändern. Und ja, ich bin fast am Ende vom Seminar, aber wir wollen schlussendlich auch in der Lage sein, unsere Intelligent Systemen zu korrigieren. Was dabei dann eigentlich wirklich schwierig ist, das die KI auch wissen muss. Wenn, ist es richtig, dass wir korrigieren und werden eigentlich nicht das. Ja, und dabei spielen dann auch Fragen wie Wie können wir sicherstellen, dass der Zweck, das wir in die Maschinen gesteckt haben, wirklich das Zweck ist, das wir auch wollen, nicht nur eine Nachahmung war. Manchmal gibt es zum Beispiel auch Möglichkeiten, dass wir nicht wollen, dass ein Mann gehört. Also es kann auch sein, ich bin in ein selbstfahrendes Auto. Ich, ich. Ich stoße vielleicht einen Knopf an, dass ich wieder selbst fahren will, aber ich habe das aus Versehen gemacht. Ich war gar nicht darauf eingestellt, wie diese App zu fahren. Also in diesem Fall will ich eigentlich nicht, dass die KI mir gehört. Aber dass die KI weiß, ich hab das aus Versehen gemacht und weiter macht. Aber ja, irgendwie möchte ich auch wenn ich wirklich sagen will KI, jetzt möchte ich es übernehmen, dass die KI dann doch nicht zuhört. Das ist auch wirklich so wieder schwierig herauszufinden, wie können wir das in die KI rein machen? Wir wollen auch nicht, dass wir die KI alles wirklich Schritt für Schritt sagen müssen, weil wenn wir so viel ausdrücklichen Anweisungen geben müssen und das macht dann doch auch nicht so viel Sinn. Aber schlussendlich wollen wir doch auch nicht, dass ein System so selbstbewusst wird, dass es der Menschen als irrational einschätzt und die Welt übernimmt. Also wir, wir sollen. Ja in der Lage sein, dass wir eingreifen können und dass wir die Systeme korrigieren können. Und ja, die Frage ist dann. Okay, und jetzt? Wir haben das alles uns angehört und jetzt? Was machen wir dann? Dann nun zu der KI. Ja, und wir befinden uns an einem heiklen Moment in der Geschichte. Das Positive ist so Seit Jahr 2014 haben wir mehr Bewusstsein für das Thema, für diese Ethik, für diesen Werte. Ja, das ist wirklich noch nicht so lange. Also die Entwicklungen an der KI haben wir gesehen, das läuft schon seit 40 Jahren. Also das ist schon was, ist aus 80 Jahren im Gang. Aber Bewusstsein für diesem Thema Ethik werten, alles im Einklang miteinander bringen, das ist wirklich nur ein paar Jahren. Aber zum Glück hat es da mehr Bewusstsein. Und sicherlich im letzten Jahr hat sich da auch vieles entwickelt. War auch mit Zipi und anderes mit KI, was mit mehr Mainstream geworden ist, gibt es auch mehr Debatte darüber. Sie erinnern sich wahrscheinlich auch diesen Open Letter, diesen Open Brief, die verschiedene Organisationen im März geschrieben haben und gefragt haben okay, wir möchten einen eineinhalbjährigen Pause. Habe in die KI Entwicklungen also auch da. Ja, mehr Leute sind sich davon bewusst, auch die Techniker. Die großen Firmen sind sich mehr bewusst von die Verantwortung die sie haben. Und auch die Politiker sind sich mehr davon bewusst, dass das ein Thema ist, womit wir etwas anfangen sollen. Auch diesem Buch. Das ist so in 2016 erschienen, hat auch viel dazu beigetragen bei diesem Bewusstsein. Beschreibt zum Beispiel auch den Einfluss, wie Algorithmen einen Einfluss haben können auf Wahlen manipulieren usw. Auch das hat dazu beigetragen, dass ja wir uns mehr bewusst sind von diesem Thema. Aber unsere Standards und Normen sind jetzt auch noch wirklich in einem Entwicklungsstadium. Das hinkt wirklich noch hinterher an technischen Entwicklungen, von was alles möglich ist in der künstlichen Intelligenz. Und das bedeutet eigentlich auch Ja, wir. Wir sollten doch vorsichtig damit sein, dass wir nicht etwas machen, etwas zulassen, was wir später bereuen werden. Also die EU. Ich weiß, das ist oft bürokratisch, ist oft langweilig, können wir auch viel Negatives darüber sprechen. Aber die EU hat da auch im Bereich KI einen Vorsprung. Ist wirklich einen ersten weltweit, um darüber zu sprechen? Ja. Was können wir aus Gesetzgebung machen über die KI? Da hat es dann selbstverständlich auch noch wieder einer massiven Lobby von technischen Firmen, die das alles etwas schwächer machen wollen. Aber da wird viel darüber gesprochen, was ich hier auf die Folien habe. Das ist so Stand der Dingen von Anfang Sommer, da hat sich auch wieder weiterentwickelt. Aber wie genau und was genau, das möchten wir dann auch in ein späteres Webinar noch besprechen wollen. Aber ich denke, für jetzt möchte ich dann die Folien bei einem Mitglieder, diese drei Punkte. Also seien wir uns doch allen davon bewusst, die KI Systemen, die wir verwenden. Sind sie wirklich fair? Sind sie transparent und hat es da auch eine Verantwortung? Also können wir da auch jemand verantwortlich halten? Können wir wirklich auch wissen, wie Entscheidungen getroffen werden? Und ist das wirklich auch fair? Nicht nur fair für mich, aber fair für allen in Gesellschaft? Wie gesagt, in so einem Monat kommen wir mit einem weiteren Webinar zu diesem Thema, um etwas Breiteres, etwas Größeres von etwas mehr Abstand die KI anzuschauen. Die Olivia wird dann mehr erzählen über Politik und Gesetze. Dann sprechen wir zum Beispiel auch über KI und Datenschutz. Geht das zusammen? Aber auch welche rechtlichen Aspekte sind für Ihr Unternehmen relevant, wenn Sie die KI benutzen? Aber wahrscheinlich wird sie da auch noch weiter erzählen. Was sind eigentlich Ihre Rechte, die Sie haben als Einwohner der Gesellschaft, wenn andere Firmen die KI nutzen und ja, Sie das erfahren im Alltag. Ja, ich werde auch nach dem Check schauen, was da noch reingekommen ist. Wenn Sie noch Fragen Bemerkungen haben, gern noch im Chat reinschreiben. Ich hoffe, ich könnte heute einige Gedanken bei Ihnen anstoßen. Ich muss sagen vor Bevor ich dieses Webinar vorbereitet habe, dachte ich auch bei der EU oft Ja, ist das wirklich nötig? Ist das nicht langweilig? Ist das wirklich notwendig? Aber ich denke, die Beispiele, die wir heute besprochen haben, zeigen auch wirklich Es ist gut, dass wir uns mit diesem Thema IT auch befassen und dass wir auch mehr darüber wissen, dass wir auch mehr darüber erfahren können, damit wir so auch unsere eigenen Standpunkte dazu gestalten können. Also wenn wir noch weiter in die Woche vorausschauen, dann. Ich werde jetzt noch die Folien wegnehmen und ich zeige noch zuerst unsere Supportadresse. Also wenn Sie Fragen haben, Bemerkungen können Sie auch schreiben an supportatsmarketing.com. Ich schreibe ich auf. Ich mache jetzt keine buchstabiere Fehler und. Genau. Ja. Ähm. Schreiben Sie noch Ihre Bemerkung im Chat. Ich. Ich mache noch kurz einen Ausblick, was Ihnen weiter in dieser Woche noch erwartet. Also, morgen ist schon Freitag, Aber dann haben wir noch das Copy Cockpit Creator Webinar. Wir haben auch noch ein internes Ninja Seminar für die Leute, die Fragen zu Websitegestaltung haben. Und dann nächste Woche. Am Montag haben wir sie auf wir das Copy Cockpit Webinar am Montag um zehn. Ist eher so ein allgemeines Copycockpit Webinar und am Dienstag geht es wieder weiter in der Akademie mit unserer SEO Serie. Also sprechen wir über die Suchmaschinenoptimierung und dann werden wir uns weiter mit Keywords befassen. Genau. Ja, ich. Ich schau noch kurz im Chat. Ich bin nicht so gut darin, gleichzeitig zu lesen und zu sprechen. Also schreiben Sie noch Ihre Bemerkungen im Chat. Rückmeldung Bin ich auch immer froh, ob es Ihnen gefällt oder nicht, weil ja, heute war doch so ein bisschen anwärmen. Aber dass etwas anderes war als aus normal. Nicht so wirklich über das Marketing. Aber wir dachten ja, wir finden es doch auch wichtig. Alle sprechen über KI. Wir nützen KI so viel, dass sie auch mal so einen Ausblick über dieses Thema haben. Und genau. Ich sehe in Chats viele Diskussionen, aber ich glaube, da hat es schöne Inputs. Schöne Gedanken haben Sie vielleicht schon auch von einander gelesen, aber nicht so? Eher noch Fragen, die ich beantworten. So ist wirklich auch viel Spannendes. Ja, ja, das finde ich auch noch eine schöne von Ursula, die sagt auch gerade in der Medizin sind die KI Screenings und Vergleich mit Statistiken hilfreich. Aber die nonverbale emotionale Kommunikation zwischen Arzt und Patient liefert oft auch ganz andere und wertvolle Hinweise. Die KI könnte genau einen mir sehr gut bekannte Orthopäde hat auch mal gesagt Ja, schon. Ich Ich möchte immer gerne die Leute im Wartezimmer abholen, weil schon wie sie vom Wartezimmer zum Zimmer laufen. Dann weiß ich eigentlich schon die Diagnose und das ist dann doch etwas, was für die KI schwierig ist zu machen. Ich denke, da kommen wir auch wieder bei die Aussage von Marcel Ja, es ist wichtig, dass wir bei alles was technisch möglich ist, noch immer auch Mensch bleiben, auch noch die menschliche Begegnung haben und behalten und das auch wirklich schätzen. Ja. Ähm. Vielen lieben Dank auch für die Rückmeldungen im Chat. Vielen lieben Dank, dass Sie heute wieder dabei waren und ich wünsche Ihnen für jetzt noch einen ganz schönen Tag. Und der Michael wird sich freuen, Ihnen morgen im Copycockpit Creator Webinar begrüßen zu dürfen. Mach's gut. Bis bald. Tschüss.
empty