In den vergangenen Wochen und Monaten haben wir miterlebt, wie sich die KI-Technologie immer schneller (um nicht zu sagen: explosionsartig) weiterentwickelt hat. Wir begeben uns damit in unbekannte Gewässer. So ist es wenig verwunderlich, dass sich Menschen in zahlreichen Branchen fragen, wie künstliche Intelligenz sich auf die Arbeit auswirken wird.
Einer Umfrage von Deloitte zufolge nutzen 61 % der befragten Angestellten KI bereits für ihre tägliche Arbeit – teilweise ohne das Wissen ihrer Vorgesetzten – und etwas mehr (64 % ) nutzen KI im privaten Leben. Für den Einsatz von KI in Unternehmen bleiben viele Fragen jedoch immer noch unbeantwortet. Dies gilt insbesondere in Hinblick auf die ethischen Fragen im Bereich künstliche Intelligenz. KI-Ethik meint dabei jene Sammlung von Werten, Prinzipien und Methoden, die das moralische Verhalten bei der Entwicklung und Nutzung von KI-Technologien leitet.
Unternehmen haben die Möglichkeit, KI mit Fokus auf den Menschen einzusetzen – und das nicht nur im Bereich Personalentwicklung. Alle Teams und Branchen werden Vorteile aus dem Gebrauch von KI und maschinellem Lernen ziehen. Aber um die Früchte der Anstrengungen zu ernten, müssen wir uns – gerade im Learning and Development – auch mit ethischen Fragen auseinandersetzen. In diesem Beitrag beschäftigen wir uns mit drei verbreiteten Sorgen von Mitarbeitenden im Hinblick auf unsere Haltung zur künstlichen Intelligenz – und zeigen, wie Sie damit umgehen können.
Mit dem Download Ihres E-Books erklären Sie sich mit unserer Datenschutzbestimmung einverstanden.
Ethische KI ist ein wichtiges Thema, über das Sie in Ihrem Unternehmen sprechen sollten. Wir stellen Ihnen drei verbreitete Sorgen in Sachen KI Ethik sowie einige Tipps und Methoden vor, wie Sie auf diese reagieren und sie eindämmen können.
Für viele Organisationen führt künstliche anstatt menschlicher Intelligenz zu erheblichen Kosteneinsparungen und verringert menschliche Fehler. künstliche Intelligenz kann z. B. dabei helfen, die Zahl von Unfällen zu senken und Fehler in Zahlungsprozessen zu verringern. Aber was bedeutet das für die Verlagerung von Arbeitsplätzen? Einer Untersuchung zufolge werden durch die Automatisierung von Tätigkeiten 3,3 Arbeitsplätze vor Ort ersetzt und laut McKinsey könnten zwischen 2016 und 2030 weltweit 15 % der Arbeitnehmer:innen entlassen werden.
Einige Beschäftigte befürchten auch, dass die Zukunft ihnen durch KI eine schlechtere Verhandlungsposition oder weniger Berufschancen bieten wird. Andere haben darauf hingewiesen, dass KI-Systeme Löhne zu senken könnten, insbesondere für Arbeitskräfte, die in Branchen, in denen die Automatisierung rasch voranschreitet, auf Routineaufgaben spezialisiert sind.
Da sich die Mitarbeiter:innen mehr mit den ethischen Aspekten künstlicher Intelligenz befassen, liegt es nun an den Arbeitgebern, ihnen diese Ängste zu nehmen.
Neben der Automatisierung von Tätigkeiten müssen wir auch Raum schaffen, damit Menschen komplexe, strategische Aufgaben übernehmen können, wodurch sie weiterhin einen Beitrag für die Gesamtgesellschaft leisten.
Aus unternehmerischer Perspektive betrachtet, wird künstliche Intelligenz zu einem Anstieg der Produktivität führen, aber es ist für Organisationen auch unerlässlich, dass sie ihre menschlichen Aspekte beibehalten, um wettbewerbsfähig zu bleiben. Mit KI soll menschliche Tätigkeit unterstützt werden – und nicht vollständig ersetzt. Der Erfolg jeder künstlichen Intelligenz beruht darauf, wie gut routinierte Nutzer:innen sie einsetzen können. Es bedarf z. B. eines erfahrenen Schreibtalents, um einen KI-erstellten Inhalt aufzubereiten, damit der Text ebenso natürlich wie einfühlsam klingt und zu Ihrer Marke passt.
Vergessen Sie nicht, dass eine künstliche Intelligenz nichts produzieren kann – KI kann nur kopieren. Bedenken Sie das, wenn Sie einzigartige Produkte, Dienstleistungen und Inhalte anbieten möchten und bewahren Sie Ihren Wettbewerbsvorteil.
Was bereitet den Mitarbeitenden darüber hinaus Kopfzerbrechen? Die Korrektheit und Eigentümerschaft von KI-generierten Inhalten. Das wollen wir uns im Folgenden genauer ansehen.
Der wachsende Gebrauch von ChatGPT und anderen KI-Tools, die Dinge für uns erzeugen, hat zu vielen offenen Fragen beim Speichern, dem Eigentum und der Zuordnung von Inhalten geführt.
Die Nutzung von ChatGPT zu persönlichen Zwecken stellt kein Problem dar, aber wenn KI-generierter Inhalt weiterverbreitet werden soll, z. B. in Marketingunterlagen, E-Books etc., dann ist der rechtliche Rahmen nicht eindeutig. Abgeordnete in der EU und den USA arbeiten derzeit an der Erstellung eines Verhaltenskodex für KI, der auch für Deutschland und deutsche KI-Anwendungen relevant sein wird; dies wird hoffentlich einige der Gefahren in puncto Eigentum von KI-generierten Inhalten bannen.
Doch selbst wenn sich Unternehmen rechtlich und moralisch einwandfrei verhalten, gibt es noch das Problem der Korrektheit. Im Moment können KI-generierte Inhalte fehlerhaft sein. Für diese Erkenntnis musste etwa CNET ein hohes Lehrgeld bezahlen. Mehr als die Hälfte seiner KI-erstellten Inhalte enthielten Fehler und das Unternehmen musste die zuvor entlassenen Textbearbeiter:innen wieder einstellen, um sie zu korrigieren. Dieser Fall belegt zweifelsfrei, dass eine generative KI nur mit Menschen zusammen optimale Ergebnisse liefern kann.
Eine weitere, verbreitete Sorge in Sachen KI? Der Datenschutz.
Eine der häufigsten Sorgen beim Thema KI sind der Anwendungsbereich Datenschutz und der Missbrauch von Daten. Während immer mehr Datensätze gesammelt und verarbeitet werden, machen sich sowohl Mitarbeiter:innen als auch Arbeitgeber:innen Sorgen über das steigende Risiko eines unbefugten Zugriffs auf persönliche Daten, was zu Datenschutzverletzungen führen würde.
Internetkriminalität betrifft einer Studie zufolge die Sicherheit von etwas unter der Hälfte der befragten deutschen Unternehmen und mehr als jemals zuvor sind sich die Menschen darüber bewusst, dass es verheerende Folgen haben kann, wenn persönliche Daten in die falschen Hände gelangen. Wie lässt sich das vermeiden, während sich aufstrebende neuen Technologien stetig weiterentwickeln? Organisationen müssen zumindest die richtigen Maßnahmen ergreifen, um die Daten ihrer Mitarbeiter:innen und Kundeninformationen mithilfe von Authentifizierungsplattformen zu schützen.
Eine andere Sorge im Zusammenhang mit KI und Datenschutz sind Beobachtung und Überwachung. Der Einsatz von KI erleichtert es Unternehmen, Daten über ihre Mitarbeiter:innen und Kund:innen zusammenzutragen. Dies bringt moralische Bedenken mit sich, vor allem wenn die Betroffen sich nicht darüber im Klaren sind, dass sie beobachtet werden oder dies zu nicht repräsentativen Datenmengen führt, die den Umgang mit ihnen beeinflussen.
Künstliche Intelligenz kommt bereits zum Einsatz, um Mitarbeiter:innen zu beaufsichtigen. 2019 befragte Garner 239 große Gesellschaften und fand heraus, dass mehr als 50 % nicht traditionelle Überwachungsmethoden für ihre Belegschaft nutzten. Dazu zählt auch die Auswertung von E-Mails und Nachrichten auf Social Media. Im VK gibt es weder eine ausdrückliche Genehmigung der Überwachung noch ein Verbot, um sie zu verhindern. Das macht die Feststellung, ob die Vorgehensweise bzw. Datenschutzeinstellungen dieser Art überhaupt legal sind, sowohl für Organisationen als auch für Mitarbeiter:innen schwierig.
Obwohl 61 % der Mitarbeiter:innen mit der Überwachung einverstanden sind, hat dieses Privileg seinen Preis: Die Angestellten möchten die Daten einsehen dürfen, ihre Auswertung anfechten können und sichergehen, dass die besagten Daten moralisch einwandfrei eingesetzt werden. Aber bedauerlicherweise gibt es bereits Beispiele von Unternehmen, welche die Daten missbräuchlich nutzen.
Wenn Arbeitgeber:innen nicht deutlich machen, welche Auswirkungen KI auf ihre Mitarbeiter:innen haben kann, riskieren sie es, das Vertrauensverhältnis zwischen der Organisation und den Arbeitskräften zu zerstören. Sorgen die Unternehmen nicht für Transparenz, fühlen sich die Mitarbeiter:innen wahrscheinlich bei jedem Schritt kontrolliert.
Während Sie die Leistung Ihrer Belegschaft aktiv beobachten dürfen, haben Sie viel zu verlieren, wenn Sie die Mitarbeiter:innen selbst überwachen. Viele Führungskräfte werden einwenden, dass es egal sein sollte, wann oder wie die Arbeit gemacht wird, solange sie sicher und effizient erledigt wird.
Wenn Organisationen den Arbeitsplatz überwachen müssen, z. B. um die Sicherheit ihrer Arbeitskräfte in einem Lager zu gewährleisten, dann sollten sie dies offen kommunizieren und erläutern, wie die Überwachung genutzt wird. Falls auf eine KI zurückgegriffen wird, sollte diese immer von einem Ausschuss verschiedener Mitarbeiter:innen kontrolliert werden, um Unvoreingenommenheit zu garantieren.
KI hat zweifellos das Potenzial, unser Leben zu revolutionieren, aber sie bringt auch moralische Bedenken mit sich. Es gibt bereits Beispiele dafür, wie sie mangelhaft oder zum Schaden von Mitarbeiter:innen eingesetzt wird.
Um gegen diese Wahrnehmung vorzugehen, müssen Regierungen und Arbeitgeber:innen zusammenarbeiten und Grundsätze schaffen, welche die KI als Unterstützung und nicht als Ersatz definieren. Organisationen, die KI so einsetzen, dass der Mensch im Mittelpunkt steht, werden gut gerüstet sein, um Produktivität und Wachstum zu steigern, ohne zu gesichtslosen Maschinen zu verkommen.
Unternehmen haben die Chance, KI persönlicher zu machen und zugleich ihren Mitarbeiter:innen die Ängste vor Entlassungen zu nehmen. Das wird Ihrer Belegschaft die Sicherheit geben, dass sie Ihnen am Herzen liegt und dass ihre weitere Beteiligung in Ihren Augen für den Erfolg der Organisation wesentlich ist.