Alle 14 Tage aktuelle News aus der IT-Szene   >   
Schwarz Digits launcht App „omniac“ zum Schutz digitaler Identitäten 21. 03. 2025
Im Rahmen der Cyber Security Conference 2025 stellte Schwarz Digits die neue App „omniac“ vor – einen digitalen Schutzschild für persönliche Daten. Begleitet wurde der Launch von der Präsentation des aktuellen Cyber Security Reports. Der österreichische Markt muss sich noch gedulden: Der Roll-out startet hierzulande erst im Sommer.
Dell erweitert AI Factory with NVIDIA 21. 03. 2025
Ein Jahr nach dem Start der Dell AI Factory with NVIDIA bringt Dell Technologies neue Lösungen für KI-Entwicklung, Infrastrukturausbau und Datenmanagement auf den Markt. Die Neuerungen umfassen leistungsstarke Workstations, Server, Software und Services – mit Fokus auf Skalierbarkeit, Performance und Integration.
Validierung durch NVIDIA ebnet Weg für KI-gestützte Dateninfrastrukturen 21. 03. 2025
NetApp hat bekannt gegeben, dass seine Enterprise Storage-Systeme mit ONTAP von NVIDIA für KI-Training und -Inferencing zertifiziert wurden. Unternehmen profitieren damit erstmals von getesteten Konfigurationen und einer integrierten Infrastruktur für anspruchsvolle KI-Workloads.
Fast die Hälfte aller neuen Unicorns 2025 aus dem KI-Sektor 20. 03. 2025
Künstliche Intelligenz (KI) bleibt der dominierende Faktor im globalen Startup-Umfeld. Eine aktuelle Analyse zeigt, dass 48 Prozent der neuen Unicorns im Jahr 2025 aus dem KI-Sektor stammen. Besonders stark ist der Fokus auf Healthcare-Technologie, während geopolitische Entwicklungen den Markt beeinflussen.
Quantencomputing und klassische Rechenleistung vereint 19. 03. 2025
Die Integration von Quantencomputing in bestehende Hochleistungsrechner (HPC) rückt einen Schritt näher an die Praxis. Quantum Brilliance und das Pawsey Supercomputing Research Centre haben einen hybriden Workflow entwickelt, der Quanten- und klassische Prozessoren nahtlos kombiniert. Durch den Einsatz von NVIDIA Superchips eröffnet sich für Forschende und Unternehmen eine neue Möglichkeit, leistungsfähige Quanten- und klassische Systeme gemeinsam für anspruchsvolle Berechnungen zu nutzen.
HPE und NVIDIA beschleunigen den Einsatz von KI für schnellere Wertschöpfung 18. 03. 2025
Hewlett Packard Enterprise (HPE) und NVIDIA stellen neue KI-Lösungen vor, die Unternehmen eine optimierte Leistung, verbesserte Sicherheit und gesteigerte Energieeffizienz bieten. Die neuen Angebote sollen den Einsatz von generativer, agentischer und physischer KI beschleunigen und eine nahtlose Integration in Unternehmensstrukturen ermöglichen.
Datenschutzbedenken treiben Kunden zum Markenwechsel 18. 03. 2025
Der Thales 2025 Digital Trust Index zeigt, dass das Vertrauen der Verbraucher in digitale Dienste branchenübergreifend weiter sinkt. Besonders Gen-Z-Kunden sind skeptisch, während Datenschutzbedenken immer häufiger zum Wechsel von Marken führen. Welche Sektoren noch am besten abschneiden und wo der größte Vertrauensverlust zu verzeichnen ist, zeigt die aktuelle Untersuchung.
Trend Micro erneut als "Channel Champion" ausgezeichnet 17. 03. 2025
Trend Micro wurde von Canalys in der Global Cybersecurity Leadership Matrix 2025 erneut als "Champion" ausgezeichnet. Damit sichert sich das Unternehmen diesen Titel bereits im dritten Jahr in Folge. Besonders hervorgehoben wurden die Innovationskraft im Go-to-Market-Bereich und das nachhaltige Engagement für seine Partner.
ServiceNow erweitert seine Plattform um KI-Agenten zur Prozessautomatisierung 13. 03. 2025
ServiceNow hat mit der Yokohama-Version seiner Now-Plattform neue KI-Agenten vorgestellt, die Arbeitsabläufe in Unternehmen effizienter gestalten sollen. Sie sollen nicht nur die Produktivität steigern, sondern auch Abläufe automatisieren und sicherer gestalten.
Manuela Mohr-Zydek ist neue Country Managerin bei Salesforce Österreich 13. 03. 2025
Manuela Mohr-Zydek die Leitung von Salesforce Österreich übernommen. Sie bringt mehr als 20 Jahre Erfahrung in Vertrieb und Marketing globaler Unternehmen mit und hat sich als Expertin für digitale Transformation und Change-Management etabliert. Mit ihrem Fokus auf innovative Technologien und KI-gestützte Automatisierung möchte sie die Wettbewerbsfähigkeit österreichischer Unternehmen im internationalen Kontext stärken.
Microsoft AI Tour Wien: KI als Wachstumstreiber für Unternehmen 12. 03. 2025
Die Microsoft AI Tour machte erneut Station in Wien und brachte mehr als 2.000 Fachleute und Technologieinteressierte zusammen. Im Mittelpunkt standen praxisnahe Anwendungen von Künstlicher Intelligenz (KI) und innovative Lösungen wie Microsoft 365 Copilot, die Unternehmen helfen, Prozesse zu automatisieren und ihre Wettbewerbsfähigkeit zu steigern.
Cellnex Austria wird zu Optimus Tower Austria 12. 03. 2025
Österreichs größter unabhängiger Kommunikationsinfrastrukturanbieter firmiert um: Die bisherige Cellnex Austria (OnTower Austria GmbH) tritt ab sofort unter dem neuen Namen Optimus Tower Austria GmbH auf. Die Umbenennung folgt der Übernahme durch ein Konsortium aus Vauban Infrastructure Partners, EDF Invest und MEAG. Am Geschäftsbetrieb und der Marktstellung ändert sich nichts.
LANCOM Systems mit neuer Doppelspitze 10. 03. 2025
Der Gründer und bisherige Geschäftsführer von LANCOM Systems, Ralf Koenzen, hat die Unternehmensleitung zum 1. März 2025 abgegeben und ist als Vorsitzender in den Aufsichtsrat gewechselt. Die Geschäftsführung übernehmen nun Constantin von Reden und Robert Mallinson.
ATIX veröffentlicht Hangar für Headless Kubernetes 10. 03. 2025
ATIX hat mit Hangar eine Software zur Verwaltung von Kubernetes-Clustern vorgestellt, die auf den "Headless Kubernetes"-Ansatz setzt. Die Lösung ermöglicht eine zentrale Steuerung der Kubernetes-Control Planes innerhalb von Kubernetes selbst. Dadurch sollen Unternehmen mehr Sicherheit und Flexibilität bei der Nutzung ihrer Workernodes erhalten.
Hybrides Einkaufsverhalten auf dem Vormarsch 07. 03. 2025
Eine neue Studie von Shopfully und Reppublika Research & Analytics zeigt, wie sich das Einkaufsverhalten in Österreich verändert. Während der stationäre Handel in einigen Bereichen weiterhin stark bleibt, nimmt die Bedeutung digitaler Informationskanäle und hybrider Kaufprozesse rapide zu. Besonders im Bereich Elektronik, Mode, Möbel und Gartenbereich setzen Konsumenten und -innen zunehmend auf digitale Lösungen.
15 Prozent der PCs im Gesundheitswesen mit Sicherheitsmängeln 06. 03. 2025
Eine neue Studie von Absolute Security zeigt, dass ein erheblicher Teil der IT-Systeme im Gesundheitswesen gravierende Sicherheitsmängel aufweist. Fehlende Sicherheitskontrollen, verspätete Updates und unregulierte KI-Nutzung erhöhen das Risiko für Cyberangriffe und Compliance-Verstöße.
DeepL stellt mit Clarify eine interaktive Funktion zur Verbesserung der Übersetzungsgenauigkeit vor 05. 03. 2025
DeepL erweitert seine KI-Sprachtechnologie um die interaktive Funktion Clarify. Sie ermöglicht es Nutzern, mehrdeutige Textstellen gezielt anzupassen und so die Qualität von Übersetzungen zu optimieren. CEO Jaroslaw Kutylowski sieht in der Neuerung einen Schritt hin zu einer dialogorientierten KI-Nutzung.
Verizon verstärkt Cybersicherheitsangebot durch Partnerschaft mit Accenture 04. 03. 2025
Verizon Business und Accenture bündeln ihre Kräfte, um Unternehmen besser gegen Cyberangriffe zu schützen. Die Partnerschaft konzentriert sich auf Managed Security Services in den Bereichen Identity and Access Management (IAM), Managed Extended Detection and Response (MxDR) sowie Cyber Risk Services. Ziel ist es, Unternehmen jeder Größe dabei zu unterstützen, Sicherheitslücken zu identifizieren, Bedrohungen frühzeitig zu erkennen und sich von Angriffen schneller zu erholen.
weiter
Wege zum verantwortungsvollen Umgang mit KI

Kritisch nachdenken, erklären, abstimmen

Beim Einsatz von Algorithmen geht es oft um Effizienz, selten um Verständlichkeit und Werte; sei es im Sozialbereich, oder in der Wirtschaft. Forschungsprojekte von Wissenschaft und NGOs zeigen, worüber Verantwortliche, Betroffene und Interessierte reden sollten. Von Michaela Ortis

Die Wissenschaftscommunity rund um Maschinelles Lernen diskutiert schon lange, dass ML-Algorithmen verständlicher sein müssen, damit die Menschen ableiten können, wieso es zu bestimmten Vorhersagen gekommen ist und was diese bedeuten. Einer darunter ist Sebastian Tschiatschek, er hat in der Schweiz direkte Demokratie erlebt: „Das hat mich motiviert, dieses Abstimmen und Mitreden auch in meinem Forschungsbereich zu ermöglichen.“

Algorithmen für Laien

Foto: Julia Glück Sebastian Tschiatschek, Universität Wien: „Man sollte idealerweise allen die Möglichkeit geben, Vorhersagen zu verstehen.“ Der Assistenzprofessor für Maschinelles Lernen am Informatikinstitut der Uni Wien forscht im Projekt „Interpretability and Explainability as Drivers to Democracy“ (gefördert vom WWTF), wie Algorithmen und Entscheidungsfindungsprozesse für Laien verständlich gemacht werden können. Fokussiert wird auf alle Gruppen, die im Lebenszyklus eines Algorithmus mitspielen bzw. betroffen sind: Beamte und Politik, die entscheiden, ob ein Algorithmus eingesetzt und wie er entwickelt wird, Firmen mit ihren wirtschaftlichen Interessen und die Bevölkerung. Je nach Wissensstand brauchen sie spezifische Erklärungen. Anschaulich sind Diagramme, um zu zeigen, welche Trends der Algorithmus darstellt. Um ein Gefühl zu bekommen, was ein Algorithmus tut und ob er für bestimmte Bevölkerungsgruppen fair ist, empfiehlt sich Algorithmic Recourse, wo man Varianten direkt überprüfen kann, z.B.: Wenn ich andere Eigenschaften hätte, welche Voraussagen würde das System dann über mich machen. Bzw. umgekehrt: Welche Eigenschaften müsste ich verändern, um eine andere Vorhersage zu erhalten.

In die Forschung fließen interdisziplinäre Gebiete ein, wie die Demokratietheorie mit Partizipationsmodellen für ausgewählte repräsentative Personen aus der Bevölkerung; dazu Tschiatschek: „Mein Zugang ist etwas anders, man sollte idealerweise allen die Möglichkeit geben, Vorhersagen über sie zu verstehen. Ob sie es dann nützen oder nicht, ist eine andere Sache. Aber hier muss man aufpassen, dass das nicht zur Pseudo-Mitsprache wird: Wenn Entwickler von Algorithmen etwa sagen, wir drucken auf 1.000 Seiten die Parameter eines neuronalen Netzwerks aus und Sie können alles nachschauen, hilft das de facto nichts.“

Was ist das Ziel?

Foto: Peter Frodin, Lund University Lupita Svensson, Universität Lund: „Entscheidungen über heikle Situationen , wo schutzbedürftige Menschen involviert sind, sollten nicht Algorithmen überlassen werden.“ Die Gesetzeswerke der EU sowie vieler einzelner Staaten propagieren, dass man bei automatisierten Entscheidungen in high-risk AI-Systemen einen „Human oversight“ braucht, also eine Person, die die Ergebnisse des Algorithmus kontrolliert und prinzipiell entscheiden kann, das AI-System nicht zu nutzen oder die Entscheidungen des Systems zu verändern oder zu verwerfen. Tschiatschek untersucht, was ein menschlicher Einfluss bedeutet, um abzuleiten, welche Informationen die Verantwortlichen bzw. die Ausführenden benötigen: „Wenn ein Human in the Loop Entscheidungen des Algorithmus verändern darf, wird dessen implizites Wertesystem verändert und das erfordert eine Abstimmung. Man erwartet sich durch den Algorithmeneinsatz Objektivierung, aber das passiert bei so einem Setting nur zu einem gewissen Grad. Werte festzulegen ist ein großes und nicht einfaches Thema. So ein Prozess wäre jedoch interessant, denn Verantwortliche müssten explizit sagen, was sie mit dem Algorithmus erreichen wollen – aber das tun sie oft nicht so gerne.“

Zum wichtigen Thema Werte forscht Lupita Svensson von der Universität Lund, bezogen auf Automatisierung im Sozialwesen, wo Entscheidungen oft vulnerable Personen betreffen und umso heikler sind. Sie sprach mit Sozialarbeiter:innen in schwedischen Kommunen, welche eng in die Entwicklung der Algorithmen eingebunden waren, das wurde von den Behörden so verlangt. „Das ist auf der einen Seite wichtig und gut, aber man muss auch etwas anderes bedenken: Diese Algorithmen sind nicht neutral, denn sie werden stark von den Menschen, die sie konstruieren, beeinflusst“, sagt Svensson. Es brauche mehr Studien, um die da-raus resultierenden Konsequenzen zu sehen. Wenn gewünscht wird, die Handhabung von Sozialhilfe zu ändern, können sich Sozialbehörden weder auf alte Daten noch auf Sozialarbeitskräfte verlassen. Vielmehr müssen sie definieren, was die neuen Werte sein sollen.

Svensson plädiert, Algorithmen dort einzusetzen, wo sie Effizienz und Neutralität bringen, wie beim Beschaffen und Klassifizieren von Informationen nach klaren Regeln: „Aber Entscheidungen über heikle Situationen, wo schutzbedürftige Menschen involviert sind, sollten nicht Algorithmen überlassen werden. Die technologische Entwicklung schreitet schnell voran und es ist leicht, sich darauf zu stürzen, ohne nachzudenken, was der Auftrag ist – deshalb ist die Diskussion darüber so wichtig.“

Mensch oder Maschine

Foto: privat Hannes Stummer, epicenter.works: „Menschen können bessere Entscheidungen treffen, die zur individuellen Situation einer Person passen.“ Die Rolle des Human in the Loop wurde an Hand des AMS-Algorithmus untersucht, berichtet Rainer Stummer von der Bürgerrechts-NGO epicenter.works: „Jeder kann sich das gut vorstellen: Der AMS-Algorithmus zeigt mir an, dass die Person, die vor mir sitzt, schlechte Chancen am Arbeitsmarkt hat. Das beeinflusst, wie ich über sie denke – obwohl ich bei dem, was ich über sie weiß, zu einer anderen Entscheidung kommen würde.“ Derzeit ist der AMS-Algorithmus durch die Datenschutzbehörde gestoppt, weil die rechtliche Grundlage fehlt.

Aus Sicht von AMS-Mitarbeiter:innen und Klient:innen habe der Algorithmus nicht mehr Zeit für Gespräche ermöglicht. Er habe vorgegriffen und Menschen in Kategorien eingeteilt, mit starkem Bias. Oft hätten die Fachkräfte anders entschieden, sie fühlten sich bevormundet. Dazu Stummer: „Ein wichtiger Punkt kam in den Befragungen immer wieder: Menschen können bessere Entscheidungen treffen, die zur individuellen Situation einer Person passen.“

Die erste Frage für Verantwortliche sei daher: Ist Technik die richtige Lösung für unser Problem? Kann Technik helfen, stehen weitere Fragen an: Bei welchen Entscheidungen sind Menschen betroffen und welche Tragweite haben diese? Kann die Technologie Qualitätsstandards wie Zuverlässigkeit oder Nichtdiskriminierung erfüllen? Der AI-Act der EU möchte künftig KI-Systeme in Kategorien einteilen. Je nach Risiko benötigen Systeme andere Qualitätsstandards und Sorgfältigkeit bei der Herstellung; gewisse Anwendungsfälle sollen verboten werden. „Eine Folgenabschätzung betrifft auch die personenbezogenen Daten, die solche Systeme vielleicht sammeln. Denn wir können oft gar nicht ermessen, welche Rückschlüsse Daten, die jetzt gesammelt werden, später einmal zulassen werden“, betont Stummer.

Für den Einsatz von Algorithmen sprächen laut Tschiatschek Argumente wie Effizienzsteigerung, Kostenreduktion und Objektivität. Ein Mensch könne jedoch Einzelfälle differenzierter betrachten und Aspekte berücksichtigen, die bei der Entwicklung nicht eingeplant waren. „Algorithmen werden kommen und ich halte es für wichtig, wie bei allen Technologien kritisch darüber nachzudenken“, resümiert Tschiatschek.


Die Recherche wurde im Rahmen des Stipendiums Forschung & Journalismus der Österreichischen Akademie der Wissenschaften gefördert.

Symbolbild auf der Startseite: Lee/adobe.istock.com

it&t business medien eU
Tel.: +43/1/369 80 67-0
office@ittbusiness.at