Alle 14 Tage aktuelle News aus der IT-Szene   >   
SmartMeeting: Kürzer „meeten“ und trotzdem mehr schaffen 21. 09. 2023
Philips spendiert seiner Dokumentationslösung für Meetings „SmartMeeting“ neue KI-Funktionen, um den Overhead bei Meetings weiter zu reduzieren.
„Hacking the Hackers“ 18. 09. 2023
Ein Profiler erzählt auf der diesjährigen it-sa gewissermaßen direkt aus dem Nähkästchen krimineller Hacker.
Atos unterstützt FH Technikum Wien mit moderner Serverinfrastruktur 12. 09. 2023
Die FH Technikum Wien hat kürzlich 32 Server von Atos entgegengenommen. Die modernen Geräte unterstützen künftig Forschung und Lehre der Bildungseinrichtung mit ausreichend Rechenkapazität.
Neue Generation von Relations CRM angekündigt 07. 09. 2023
Version 8 bringt eine Reihe an Neuerungen und Verbesserungen in die Business-Lösung von Sunrise Software.
Disruptionspotenzial von KI-Anwendungen in vielen Branchen unterschätzt 23. 08. 2023
Gesundheitssektor und Handel prognostizieren die stärksten Umwälzungen für ihre Branchen. Die Mehrheit der Dienstleister glaubt nicht, dass Geschäftsmodelle und Angebote sich durch ChatGPT und Co. verändern – Banken sind besonders defensiv.
Bericht zeigt: Passwörter sind nach wie vor das schwächste Glied 22. 08. 2023
Der Specops Weak Password Report zeigt auf, welche gravierenden Sicherheitsmängel weiterhin bei Passwörtern herrschen und warum eine stärkere Durchsetzung von Passwortrichtlinien die beste Verteidigung sein kann.
Nutanix bringt "GPT-in-a-Box" 21. 08. 2023
Das Komplettpaket vereinfacht den Betrieb von neuralen Netzwerkmodellen in Unternehmen.
accompio Unternehmensgruppe geht an den Start 18. 08. 2023
Die neue Dachmarke bündelt die Kompetenzen von fünf IT-Unternehmen.
Arbeitsmarkt: Nachfragerückgang auf hohem Niveau 17. 08. 2023
Der Spezialisten-Index von Hays verzeichnet einen Nachfragerückgang quer durch alle Fachbereichen. In der IT-Branche wurden vor allem weniger IT-Security-Spezialist:innen, IT-Architekt:innen sowie IT-Supporter:innen gesucht.
Yealink intensiviert Präsenz im DACH-Raum 16. 08. 2023
Littlebit Technology vertreibt die Video Conferencing-Produkte des UCC-Herstellers ab sofort in Deutschland, Österreich und der Schweiz.
Einfach digital telefonieren 04. 08. 2023
Die Cloud-Telefonanlage von Easybell jetzt auch in Österreich verfügbar.
Neue Dell-Lösungen beschleunigen Einführung von generativer KI 04. 08. 2023
„Validated Design für Generative AI“ bietet getestete und validierte Kombinationen aus Infrastruktur, Software und Services.
WiFi 6 für KMU 03. 08. 2023
Ein neuer WiFi 6 Access Point von Cambium Networks erleichtert den Einstieg in die WLAN-Technologie der nächsten Generation.
Kyndryl erweitert sein Managed-Security-Services-Portfolio 02. 08. 2023
Der IKT-Dienstleister bietet seinen Kunden ab sofort neue Services zur Bekämpfung von Cyber-Bedrohungen und zur Stärkung der Resilienz nach Angriffen.
Größere Unternehmen digitalisieren besser 01. 08. 2023
Die Bereitschaft, in Digitalisierungsmaßnahmen zu investieren, steigt trotz der aktuellen Krisen – jedoch vor allem im gehobenen Mittelstand. Kleinere Betriebe haben Nachholbedarf.
Riverbed zeichnet Infinigate als „Distributor of the Year“ aus. 31. 07. 2023
Die Infinigate-Gruppe wurde von Riverbed als europäischer Distributor des Jahres ausgezeichnet.
AWS fördert österreichisches Start-up 28. 07. 2023
Das Team von Blackshark.ai wurde als eines von 13 Start-ups für den AWS European Defence Accelerator ausgewählt. 
MP2 erhält Gütezeichen zum Österreichischen Musterbetrieb 26. 07. 2023
Das österreichische IT-Unternehmen überzeugte die ÖQA mit Qualität und Innovation.
weiter
Wege zum verantwortungsvollen Umgang mit KI

Kritisch nachdenken, erklären, abstimmen

Beim Einsatz von Algorithmen geht es oft um Effizienz, selten um Verständlichkeit und Werte; sei es im Sozialbereich, oder in der Wirtschaft. Forschungsprojekte von Wissenschaft und NGOs zeigen, worüber Verantwortliche, Betroffene und Interessierte reden sollten. Von Michaela Ortis

Die Wissenschaftscommunity rund um Maschinelles Lernen diskutiert schon lange, dass ML-Algorithmen verständlicher sein müssen, damit die Menschen ableiten können, wieso es zu bestimmten Vorhersagen gekommen ist und was diese bedeuten. Einer darunter ist Sebastian Tschiatschek, er hat in der Schweiz direkte Demokratie erlebt: „Das hat mich motiviert, dieses Abstimmen und Mitreden auch in meinem Forschungsbereich zu ermöglichen.“

Algorithmen für Laien

Foto: Julia Glück Sebastian Tschiatschek, Universität Wien: „Man sollte idealerweise allen die Möglichkeit geben, Vorhersagen zu verstehen.“ Der Assistenzprofessor für Maschinelles Lernen am Informatikinstitut der Uni Wien forscht im Projekt „Interpretability and Explainability as Drivers to Democracy“ (gefördert vom WWTF), wie Algorithmen und Entscheidungsfindungsprozesse für Laien verständlich gemacht werden können. Fokussiert wird auf alle Gruppen, die im Lebenszyklus eines Algorithmus mitspielen bzw. betroffen sind: Beamte und Politik, die entscheiden, ob ein Algorithmus eingesetzt und wie er entwickelt wird, Firmen mit ihren wirtschaftlichen Interessen und die Bevölkerung. Je nach Wissensstand brauchen sie spezifische Erklärungen. Anschaulich sind Diagramme, um zu zeigen, welche Trends der Algorithmus darstellt. Um ein Gefühl zu bekommen, was ein Algorithmus tut und ob er für bestimmte Bevölkerungsgruppen fair ist, empfiehlt sich Algorithmic Recourse, wo man Varianten direkt überprüfen kann, z.B.: Wenn ich andere Eigenschaften hätte, welche Voraussagen würde das System dann über mich machen. Bzw. umgekehrt: Welche Eigenschaften müsste ich verändern, um eine andere Vorhersage zu erhalten.

In die Forschung fließen interdisziplinäre Gebiete ein, wie die Demokratietheorie mit Partizipationsmodellen für ausgewählte repräsentative Personen aus der Bevölkerung; dazu Tschiatschek: „Mein Zugang ist etwas anders, man sollte idealerweise allen die Möglichkeit geben, Vorhersagen über sie zu verstehen. Ob sie es dann nützen oder nicht, ist eine andere Sache. Aber hier muss man aufpassen, dass das nicht zur Pseudo-Mitsprache wird: Wenn Entwickler von Algorithmen etwa sagen, wir drucken auf 1.000 Seiten die Parameter eines neuronalen Netzwerks aus und Sie können alles nachschauen, hilft das de facto nichts.“

Was ist das Ziel?

Foto: Peter Frodin, Lund University Lupita Svensson, Universität Lund: „Entscheidungen über heikle Situationen , wo schutzbedürftige Menschen involviert sind, sollten nicht Algorithmen überlassen werden.“ Die Gesetzeswerke der EU sowie vieler einzelner Staaten propagieren, dass man bei automatisierten Entscheidungen in high-risk AI-Systemen einen „Human oversight“ braucht, also eine Person, die die Ergebnisse des Algorithmus kontrolliert und prinzipiell entscheiden kann, das AI-System nicht zu nutzen oder die Entscheidungen des Systems zu verändern oder zu verwerfen. Tschiatschek untersucht, was ein menschlicher Einfluss bedeutet, um abzuleiten, welche Informationen die Verantwortlichen bzw. die Ausführenden benötigen: „Wenn ein Human in the Loop Entscheidungen des Algorithmus verändern darf, wird dessen implizites Wertesystem verändert und das erfordert eine Abstimmung. Man erwartet sich durch den Algorithmeneinsatz Objektivierung, aber das passiert bei so einem Setting nur zu einem gewissen Grad. Werte festzulegen ist ein großes und nicht einfaches Thema. So ein Prozess wäre jedoch interessant, denn Verantwortliche müssten explizit sagen, was sie mit dem Algorithmus erreichen wollen – aber das tun sie oft nicht so gerne.“

Zum wichtigen Thema Werte forscht Lupita Svensson von der Universität Lund, bezogen auf Automatisierung im Sozialwesen, wo Entscheidungen oft vulnerable Personen betreffen und umso heikler sind. Sie sprach mit Sozialarbeiter:innen in schwedischen Kommunen, welche eng in die Entwicklung der Algorithmen eingebunden waren, das wurde von den Behörden so verlangt. „Das ist auf der einen Seite wichtig und gut, aber man muss auch etwas anderes bedenken: Diese Algorithmen sind nicht neutral, denn sie werden stark von den Menschen, die sie konstruieren, beeinflusst“, sagt Svensson. Es brauche mehr Studien, um die da-raus resultierenden Konsequenzen zu sehen. Wenn gewünscht wird, die Handhabung von Sozialhilfe zu ändern, können sich Sozialbehörden weder auf alte Daten noch auf Sozialarbeitskräfte verlassen. Vielmehr müssen sie definieren, was die neuen Werte sein sollen.

Svensson plädiert, Algorithmen dort einzusetzen, wo sie Effizienz und Neutralität bringen, wie beim Beschaffen und Klassifizieren von Informationen nach klaren Regeln: „Aber Entscheidungen über heikle Situationen, wo schutzbedürftige Menschen involviert sind, sollten nicht Algorithmen überlassen werden. Die technologische Entwicklung schreitet schnell voran und es ist leicht, sich darauf zu stürzen, ohne nachzudenken, was der Auftrag ist – deshalb ist die Diskussion darüber so wichtig.“

Mensch oder Maschine

Foto: privat Hannes Stummer, epicenter.works: „Menschen können bessere Entscheidungen treffen, die zur individuellen Situation einer Person passen.“ Die Rolle des Human in the Loop wurde an Hand des AMS-Algorithmus untersucht, berichtet Rainer Stummer von der Bürgerrechts-NGO epicenter.works: „Jeder kann sich das gut vorstellen: Der AMS-Algorithmus zeigt mir an, dass die Person, die vor mir sitzt, schlechte Chancen am Arbeitsmarkt hat. Das beeinflusst, wie ich über sie denke – obwohl ich bei dem, was ich über sie weiß, zu einer anderen Entscheidung kommen würde.“ Derzeit ist der AMS-Algorithmus durch die Datenschutzbehörde gestoppt, weil die rechtliche Grundlage fehlt.

Aus Sicht von AMS-Mitarbeiter:innen und Klient:innen habe der Algorithmus nicht mehr Zeit für Gespräche ermöglicht. Er habe vorgegriffen und Menschen in Kategorien eingeteilt, mit starkem Bias. Oft hätten die Fachkräfte anders entschieden, sie fühlten sich bevormundet. Dazu Stummer: „Ein wichtiger Punkt kam in den Befragungen immer wieder: Menschen können bessere Entscheidungen treffen, die zur individuellen Situation einer Person passen.“

Die erste Frage für Verantwortliche sei daher: Ist Technik die richtige Lösung für unser Problem? Kann Technik helfen, stehen weitere Fragen an: Bei welchen Entscheidungen sind Menschen betroffen und welche Tragweite haben diese? Kann die Technologie Qualitätsstandards wie Zuverlässigkeit oder Nichtdiskriminierung erfüllen? Der AI-Act der EU möchte künftig KI-Systeme in Kategorien einteilen. Je nach Risiko benötigen Systeme andere Qualitätsstandards und Sorgfältigkeit bei der Herstellung; gewisse Anwendungsfälle sollen verboten werden. „Eine Folgenabschätzung betrifft auch die personenbezogenen Daten, die solche Systeme vielleicht sammeln. Denn wir können oft gar nicht ermessen, welche Rückschlüsse Daten, die jetzt gesammelt werden, später einmal zulassen werden“, betont Stummer.

Für den Einsatz von Algorithmen sprächen laut Tschiatschek Argumente wie Effizienzsteigerung, Kostenreduktion und Objektivität. Ein Mensch könne jedoch Einzelfälle differenzierter betrachten und Aspekte berücksichtigen, die bei der Entwicklung nicht eingeplant waren. „Algorithmen werden kommen und ich halte es für wichtig, wie bei allen Technologien kritisch darüber nachzudenken“, resümiert Tschiatschek.


Die Recherche wurde im Rahmen des Stipendiums Forschung & Journalismus der Österreichischen Akademie der Wissenschaften gefördert.

Symbolbild auf der Startseite: Lee/adobe.istock.com

it&t business medien OG
Tel.: +43/1/369 80 67-0
office@ittbusiness.at