summaryrefslogtreecommitdiff
path: root/updates
diff options
context:
space:
mode:
author46halbe <46halbe@berlin.ccc.de>2020-01-09 07:53:40 +0000
committer46halbe <46halbe@berlin.ccc.de>2020-05-23 13:40:24 +0000
commit744cb3cf976f386df52e2576191182dc238431a5 (patch)
tree6ff91b287ade613c758ea9af4bb5605d34457a0c /updates
parentba55041466443ab624b8b686251e2c0ca50e5315 (diff)
committing page revision 1
Diffstat (limited to 'updates')
-rw-r--r--updates/2020/gesichtserkennungstoppen.md96
1 files changed, 96 insertions, 0 deletions
diff --git a/updates/2020/gesichtserkennungstoppen.md b/updates/2020/gesichtserkennungstoppen.md
new file mode 100644
index 00000000..e95500f1
--- /dev/null
+++ b/updates/2020/gesichtserkennungstoppen.md
@@ -0,0 +1,96 @@
1title: Aktuelle Pläne des Innenministeriums müssen gestoppt werden – Bündnis fordert Verbot automatisierter Gesichtserkennung
2date: 2020-01-09 07:53:40
3updated: 2020-01-09 07:53:40
4author: evelyn
5tags: update, pressemitteilung
6
7Ein Bündnis aus zivilgesellschaftlichen Organisationen wendet sich gegen den Vorstoß des Innenministeriums, an 135 Bahnhöfen und 14 Flughäfen automatisierte Gesichtserkennung einsetzen zu wollen. Stattdessen fordert das Bündnis „Gesichtserkennung stoppen“ ein Verbot dieser hochproblematischen Technologie in Deutschland.
8
9<!-- TEASER_END -->
10
11Auch wenn eine Verbesserung der Sicherheit etwa an Bahnhöfen
12grundsätzlich sinnvoll erscheint, ist automatisierte Gesichtserkennung
13als Mittel dafür nicht nur ungeeignet, sondern hat immense negative
14Folgen für Millionen Passanten und Reisende. Automatisierte
15Gesichtserkennung bedeutet eine permanente heimliche Personenüberwachung
16in öffentlichen Räumen wie Bahnhöfen oder Flughäfen. Die Körperdaten
17aller Vorbeilaufenden werden dabei erfasst und automatisiert mit
18Datenbanken abgeglichen, ohne dass die Betroffenen dies bemerken müssen.
19Damit greift die automatisierte Gesichtserkennung tief in die Rechte und
20Freiheiten von Menschen ein, wenn biometrische Körperdaten quasi im
21Vorbeigehen und anlasslos analysiert werden.
22
23„Automatische Gesichtserkennung ist eine Hochrisikotechnologie“, erklärt
24Viktor Schlüter von der Organisation Digitale Freiheit: „Hohe
25Falscherkennungsraten, die Diskriminierung von Frauen und People of
26Color und das enorme Missbrauchspotential stellen eine Gefahr für die
27Demokratie dar.“
28
29„Dieses unnötige und invasive Biometriesystem ist nur ein weiterer
30Baustein, den maschinenlesbaren Menschen zu schaffen. Allein durch das
31zufällige Vorbeilaufen legen wir mit unseren Körperdaten eine digitale
32Spur, die uns alle auch wegen der Unzuverlässigkeit der eingesetzten
33Algorithmen in unseren Rechten und Freiheiten einschränkt“, sagte Dirk
34Engling, Sprecher des Chaos Computer Clubs.
35
36„Die optische Vermessung von Gesichtern droht eine weitere Form der
37anlasslosen Überwachung zu werden, nur diesmal mit detaillierten
38Körperdaten“, fügt Rainer Rehak vom Forum InformatikerInnen für Frieden
39und gesellschaftliche Verantwortung hinzu. „Wir müssen uns jetzt diesen
40gefährlichen Plänen in den Weg stellen, bevor immer mehr öffentliche
41Räume mit biometrischen Erkennungssystemen bestückt werden, die zudem
42nicht einmal mehr Sicherheit bringen.“
43
44„Der Einsatz dieser Technologie zur Überwachung des öffentlichen Raumes
45schränkt auch politische Teilhabe ein: Wer fürchten muss, automatisch
46erfasst zu werden, wird im Zweifel eher nicht an einer Demonstration
47teilnehmen“, gibt Elisabeth Niekrenz von der Digitalen Gesellschaft zu
48bedenken.
49
50Im Lichte stetig sinkender Kriminalitätsraten in Deutschland besteht
51nicht nur keinerlei Notwendigkeit für neue, teure und ineffiziente
52Überwachungsmaßnahmen zur anlasslosen Erfassung von Körperdaten von
53Reisenden, sondern ist es Zeit, ein Verbot dieser gesellschaftlich
54schädlichen Technologie in die Wege zu leiten. Ein Verbot
55automatisierter Gesichtserkennung in Deutschland hat bereits Vorbilder:
56Mehrere US-amerikanische Großstädte haben den Einsatz der Technologie
57durch staatliche Stellen im öffentlichen Raum aufgrund der damit
58verbundenen Gefahren verboten. Der Stadtrat von San Francisco etwa
59bezeichnete automatisierte Gesichtserkennung als „gefährliche Waffe“
60sowie als inkompatibel mit einer gesunden Demokratie und verbot ihren
61Einsatz. \[3\]
62
63Dass die teure Technik überhaupt einsatzreif ist und den erhofften Zweck
64erfüllt, ist zudem zweifelhaft: In einem Gesichtserkennungstest von
65Innenministerium und Bundespolizei im Jahr 2018 in Berlin war die
66Falscherkennungsrate so hoch, dass mehr als jede 200. Person
67fälschlicherweise erkannt wurde. Dies würde allein am getesteten
68Berliner Bahnhof Südkreuz zu täglich 600 Fehlalarmen führen. Der Chaos
69Computer Club \[1\] und das Forum InformatikerInnen für Frieden und
70gesellschaftliche Verantwortung \[2\] kritisierten die
71unwissenschaftliche Vorgehensweise und Auswertung der Tests sowie die
72deutlich geschönten Testergebnisse.
73
74Das Bündnis „Gesichtserkennung stoppen“ besteht aus den
75zivilgesellschaftlichen Organisationen Digitale Freiheit, Chaos Computer
76Club, Digitale Gesellschaft, Forum InformatikerInnen für Frieden und
77gesellschaftliche Verantwortung sowie Digitalcourage.
78
79Der Chaos Computer Club fordert die detaillierte Veröffentlichung der
80Ergebnisse der vergangenen und laufenden Biometrie-Tests an Bahnhöfen,
81um eine ernsthafte Bewertung der Ergebnisse und eine öffentliche
82Diskussion über die Erkennungssysteme zu ermöglichen.
83
84**Links**:
85
86\[0\] <https://www.gesichtserkennung-stoppen.de/>
87
88\[1\] Biometrische Videoüberwachung: Der Südkreuz-Versuch war kein
89Erfolg,
90[https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz](/de/updates/2018/debakel-am-suedkreuz)
91
92\[2\] Verfälschte Studie zur Tauglichkeit grundrechtswidriger Techniken,
93<https://www.fiff.de/verfaelschte-studie-zur-tauglichkeit-grundrechtswidriger-techniken>
94
95\[3\]
96<https://www.npr.org/2019/05/14/723193785/san-francisco-considers-ban-on-governments-use-of-facial-recognition-technology>