- KI überwacht Mitarbeiter auf...
Eine Reihe großer US-Unternehmen setzt KI-Überwachungssysteme ein, um die Mitarbeiterkommunikation in beliebten Business-Apps wie Slack, Teams und Zoom zu analysieren ..
Ein KI-Modell behauptet, dass es in der Lage ist, den Inhalt und die Stimmung von Texten und Bildern zu analysieren, die von Mitarbeitern gepostet werden, berichtet CNBC.
Einige dieser Tools werden auf relativ unverfängliche Weise eingesetzt - wie die Bewertung der aggregierten Mitarbeiterreaktionen auf Dinge wie neue Unternehmensrichtlinien
Diese Dienste bauen zwar auf nicht KI-basierten Überwachungsinstrumenten auf, die schon seit Jahren verwendet werden, doch einige sind besorgt, dass sie sich auf orwellsches Terrain begeben.
Foto von Andres Siimon auf Unsplash
Ein KI-Modell behauptet, dass es in der Lage ist, den Inhalt und die Stimmung von Texten und Bildern zu analysieren, die von Mitarbeitern gepostet werden, berichtet CNBC.
Einige dieser Tools werden auf relativ unverfängliche Weise eingesetzt - wie die Bewertung der aggregierten Mitarbeiterreaktionen auf Dinge wie neue Unternehmensrichtlinien
Aber auch andere Tools - einschließlich eines anderen, das von demselben Unternehmen angeboten wird - können die Beiträge bestimmter Personen kennzeichnen."Um die Privatsphäre zu schützen, werden keine Namen von Personen genannt", sagte Jeff Schumann, CEO von Aware. Vielmehr, so Schumann, werden die Kunden sehen, dass "vielleicht die Arbeitnehmer über 40 in diesem Teil der Vereinigten Staaten die Änderungen der
Chevron, Delta, Starbucks, T-Mobile und Walmart sind nur einige der Unternehmen, die diese Systeme angeblich nutzen. Aware hat nach eigenen Angaben mehr als 20 Milliarden Interaktionen von mehr als drei Millionen Mitarbeitern analysiert.Die Dutzenden von KI-Modellen von Aware, die Text lesen und Bilder verarbeiten können, können auch Mobbing, Belästigung, Diskriminierung, Nichteinhaltung von Vorschriften, Pornografie, Nacktheit und andere Verhaltensweisen erkennen.
Diese Dienste bauen zwar auf nicht KI-basierten Überwachungsinstrumenten auf, die schon seit Jahren verwendet werden, doch einige sind besorgt, dass sie sich auf orwellsches Terrain begeben.
Eine weitere Sorge ist, dass selbst aggregierte Daten leicht de-anonymisiert werden können, wenn sie auf einer granularen Ebene gemeldet werden, wie z. B. Alter des Mitarbeiters, Standort, Abteilung, Betriebszugehörigkeit oder Jobfunktion".Jutta Williams, Mitbegründerin der gemeinnützigen Organisation Humane Intelligence, sagte, dass KI den so genannten Insider-Risiko-Programmen, die seit Jahren existieren, um Dinge wie Unternehmensspionage zu bewerten, insbesondere innerhalb der E-Mail-Kommunikation, einen neuen und potenziell problematischen Aspekt hinzufügt: "Vieles davon wird zu Gedankenverbrechen." Sie fügte hinzu: "Hier werden Menschen auf eine Art und Weise wie Inventar behandelt, wie ich es noch nie gesehen habe." [...]Amba Kak, geschäftsführende Direktorin des AI Now Institute an der New York University, ist besorgt über den Einsatz von KI, um zu bestimmen, was als riskantes Verhalten gilt: "Das führt zu einer abschreckenden Wirkung auf das, was Menschen am Arbeitsplatz sagen", sagte Kak und fügte hinzu, dass die Federal Trade Commission, das Justizministerium und die Equal Employment Opportunity Commission alle Bedenken in dieser Angelegenheit geäußert haben, obwohl sie nicht speziell über die Technologie von Aware sprach. "Dies sind sowohl Fragen der Arbeitnehmerrechte als auch Fragen des Datenschutzes".
Foto von Andres Siimon auf Unsplash