Von wegen persönliche Betreuung: Bei der Bundesagentur für Arbeit und somit auch den Jobcentern kommen immer öfter „intelligente“ Programme zum Einsatz, die unter anderem die Arbeitsmarktchancen von Hartz IV Empfängern berechnen oder aber die psychologischen Gutachten auswerten. Eine schöne neue Welt…
Jobcenter sollen effizienter werden
Auf den Einsatz künstlicher Intelligenz in den Jobcentern macht die Nichtregierungsorganisation Algorithm Watch in ihrem „Atlas der Automatisierung“ aufmerksam. Demnach werden in den Büros aktuell drei Softwarelösungen eingesetzt, die automatisierte Entscheidungen ermöglichen.
Programm Nummer eins dient dem intelligenten Matching und nennt sich Verbis (Vermittlungs-, Beratungs- und Informationssystem). Es hilft, die Lebensläufe von Hartz IV Empfängern und generell Jobsuchenden mit den vorhandenen Stellenausschreibungen abzugleichen. Das Ergebnis erhalten die Jobcenter-Mitarbeiter, um die Vermittlung in Angriff nehmen zu können.
Die Arbeitsmarktchancen von Leistungsempfängern werden mit sogenannten PP-Tools berechnet. Hier fließt zum Beispiel der Wohnort ein. Mehr ist zu diesem Programm nicht bekannt. Darüber hinaus setzt der berufspsychologische Service auf Software, die bei Gutachten und der Auswertung von Tests hilft. Geplant ist zudem eine automatisierte Antragsbearbeitung für das Arbeitslosengeld, die ab 2020 zum Einsatz kommen soll.
Gefährliche Technik
Dass Software nicht immer rund läuft und Fehler macht, hat jeder bereits am eigenen Leib erfahren. Geht es dabei um die Grundsicherung, die Existenz und die Chance auf einen Job, sind solche Fehler besonders fatal. Daher sehen viele den Einsatz der künstlichen Intelligenz durchaus kritisch.
„Unsere Sorge ist, dass sich ein Bias [eine Verzerrung] einschleicht, wenn Systeme schlecht programmiert sind oder die Qualität der zugrundeliegenden Daten schlecht ist. Das kann beispielsweise dazu führen, dass auf Basis des Geschlechts diskriminiert wird“, so Lorenz Matzat von Algorithm Watch gegenüber „Business Insider“.
Entscheidungen müssen erklärbar sein
Für Software ist es ohnehin schwer, die Qualifikation von Bewerbern zu beurteilen. Deshalb verzichten selbst Konzerne wie Amazon auf solche Lösungen. Algorithm Watch fordert daher eine Nachvollziehbarkeit der Entscheidungen. Auch die Informationsfreiheitsbeauftragten aus Bund und Ländern pochen auf einen TÜV für Algorithmen. Wichtig sei vor allem die Erklärbarkeit, betont der Professor für Wirtschaftsethik an der TU München, Christoph Lütge.
Beispiel: Die Jobcenter müssen erklären können, warum ein Hartz IV Empfänger aus Sicht der Software keine Jobchancen hat. Denn, so Professor Lütge: „Was wir in einem demokratischen Staat nicht wollen, ist, dass Entscheidungen getroffen werden, die nicht nachvollziehbar sind.“ Von diesen Entscheidungen gibt es in den Jobcentern schon heute mehr als genug.
Titelbild: YAKOBCHUK VIACHESLAV / shutterstock.com