Im frühen 19. Jahrhundert startete eine Gruppe englischer Textilhandwerker, bekannt als die Ludditen, eine Reihe von stürmischen Protesten. Zwar wurden sie häufig als technologiefeindlich dargestellt, hinter ihrem eigentlichen Anliegen steckte jedoch das menschliche Bedürfnis nach fairen Löhnen und nachhaltigen Arbeitsbedingungen.
Der Geschichte zufolge verschonten die Arbeiter die Hersteller, die die neuesten Technologien nutzten, aber dennoch sicherstellten, dass ihre Arbeiter einen existenzsichernden Lohn erhielten und respektvoll behandelt wurden. Heute, an der Schwelle zur Revolution im Zuge der künstlichen Intelligenz (KI), lassen sich unheimliche Parallelen zur Geschichte der Ludditen feststellen.
Als Chief Data Scientist bei Planview bin ich davon überzeugt, dass wir technologiefreundlich sein können, ohne dabei den Menschen aus den Augen zu verlieren, indem wir KI im Namen unserer Kunden als eine Kraft für das Gute einsetzen.
Wir können die Vorteile von KI durch eine verantwortungsvolle Entwicklung und Nutzung voll ausschöpfen, indem wir uns dabei auf die folgenden drei Kernprinzipien konzentrieren: Sicherstellen von genauen und unvoreingenommenen Technologien, Schützen von Daten und geistigem Eigentum durch eine umsichtige Datennutzung sowie Einsetzen der KI nicht als Ersatz, sondern als Ergänzung für qualifizierte Arbeitskräfte.
Sicherstellen von genauen und unvoreingenommenen Technologien
Bias und Ungenauigkeiten in KI-Modellen können unerwünschte oder gar verheerende Auswirkungen haben, von falschen Geschäftsentscheidungen bis hin zu ungerechter Behandlung. Es liegt in unserer kollektiven Verantwortung als Technologen, solche Risiken zu minimieren.
KI-Technologien müssen präzise und frei von Bias sein, um ihren Zweck zu erfüllen und das Vertrauen der Allgemeinheit zu gewinnen.
Bei Planview werden Genauigkeit und Unvoreingenommenheit durch die Identifizierung und Beseitigung von Bias sichergestellt. Die Identifizierung erfolgt durch umfassende Tests, ähnlich wie bei der Qualitätssicherung in der traditionellen Softwareentwicklung. Wir testen KI-Modelle anhand diversifizierter Datensätze, die die Komplexität der realen Welt widerspiegeln. So stellen wir sicher, dass die Modelle in verschiedenen Szenarien und bei unterschiedlichen Demografien genau und fair funktionieren.
Auch das Beseitigen von Bias ist keine einmalige Angelegenheit. Es ist ein iterativer Prozess, der mit Transparenz in Bezug auf das Design, den Zweck und die Grenzen des KI-Systems beginnt. Die Interpretierbarkeit des Modells spielt dabei eine entscheidende Rolle. Durch erklärbare KI können wir nachvollziehen, wie ein Modell zu einer bestimmten Schlussfolgerung gekommen ist. So können wir Bias im Entscheidungsprozess erkennen und korrigieren.
Schützen von Daten und geistigem Eigentum durch eine umsichtige Datennutzung
Daten sind der Treibstoff für die KI. Bei der Verwendung von Daten müssen jedoch die Rechte von Personen und Organisationen respektiert werden. Datenschutz und geistige Eigentumsrechte sind für uns nicht verhandelbar.
Wir legen großen Wert darauf, sicherzustellen, dass unsere Trainingsdaten verantwortungsvoll zusammengestellt werden. In der Praxis bedeutet dies, dass wir personenbezogene Daten anonymisieren, die notwendigen Einwilligungen einholen und uns strikt an internationale Vorschriften wie die DSGVO halten.
In vielen Fällen nutzen wir Machine-Learning-Algorithmen in unseren eigenen Computerressourcen, um sensible Daten zu schützen. Im Zusammenhang mit generativer KI, bei der von Drittanbietern wie Microsoft und OpenAI verwaltete Modelle eine erstklassige Leistung bieten können, geht der Nutzung eine sorgfältige Prüfung der Datenschutz- und Sicherheitspraktiken der Drittanbieter voraus.
Durch die Einhaltung dieser Grundsätze stellen wir sicher, dass unsere KI-Technologien auf einem stabilen Fundament aus Respekt und Vertrauen aufbauen.
Einsetzen der KI nicht als Ersatz, sondern als Ergänzung für qualifizierte Arbeitskräfte
Das Potenzial von KI ist überwältigend. Als Technologen ist es dennoch unsere Pflicht, dafür zu sorgen, dass sie der Menschheit dient.
Unsere Technologien sind darauf ausgelegt, sich wiederholende und alltägliche Aufgaben zu erledigen, die Produktivität zu verbessern und es unseren Teams und Kunden zu ermöglichen, sich auf die kreativeren, strategischen und von Natur aus „menschlichen“ Arbeiten zu konzentrieren, die allen erfolgreichen, nachhaltigen Unternehmen zugrunde liegen.
Beim strategischen Portfoliomanagement kann KI beispielsweise Prozesse (wie das Erstellen von Plänen und das Ausfüllen von Zeitnachweisen) rationalisieren, Projektzeitpläne vorhersagen und Ressourcen optimieren. Sie kann riesige Datenmengen in kürzester Zeit analysieren und liefert Erkenntnisse, die Managern helfen, fundiertere Entscheidungen zu treffen.
KI kann jedoch nicht die Führungsqualitäten, die Kreativität und die menschliche Note ersetzen, die Product Owner und Projektmanager in ihre Teams und Projekte einbringen. Wir wollen sicherstellen, dass unsere KI-Tools unsere Benutzer unterstützen und ihre Arbeit einfacher und produktiver machen, anstatt sie zu ersetzen.
Streben nach einer verantwortungsvollen, ethischen und inklusiven Technologielandschaft
Ähnlich wie die Ludditen des 19. Jahrhunderts streben wir nach einer verantwortungsvollen, ethischen und inklusiven Technologielandschaft, die allen Menschen, die sie nutzen, zugutekommt.
Indem wir sicherstellen, dass unsere KI-Technologien genau und unvoreingenommen sind, private Daten und geistiges Eigentum respektieren und menschliche Fähigkeiten ergänzen, anstatt sie zu ersetzen, sind wir auf dem besten Weg, ein digitales Ökosystem zu schaffen, das das Leitprinzip fairer Arbeitsbedingungen widerspiegelt, für das bereits die Ludditen kämpften.
Während wir bei Planview kämpferisch in die Zukunft der KI investieren, lassen wir uns von den Lehren der Ludditen inspirieren.
Die Ludditen waren nicht technikfeindlich – sie waren Beschützer ihres Handwerks, ihres Lebensunterhalts und ihrer Würde. Ebenso müssen wir als Technologen unsere Ethik, unsere Nutzer und unsere Gesellschaft im Zeitalter der KI schützen.
Wir werden uns weiterhin an bedeutsamen Diskussionen über die Auswirkungen von KI auf unsere Arbeit und die Gesellschaft beteiligen. Zudem freuen wir uns auf Ihr Feedback zu unserer Integration von verantwortungsvoller KI in die Planview Plattform.