• Signatures récoltées 0 sur 15'000 0% 0%
  • Budget 1'000 sur 20'000 5% 5%

Argumentaire

Initiative contre la Reconnaissance Faciale

Pour ne pas laisser l'état nous surveiller jusque dans nos toilettes

Texte

Intiative contre la reconnaissance faciale

Art. 1  L'utilisation de technologies d'identification et de reconnaissance est interdite sur l'espace public.
Art. 2 La loi prévoit des exceptions. Celles-ci ne peuvent être justifiées que par les intérêts publics supérieurs suivants:
    - la sécurité publique;
    - la recherche scientifique.
Le législateur fixe les modalités d'application de la présente loi.
Dispositions transitoires (à définir par la chancellerie)

Argumentaire

?

Pourquoi, nous les Pirates, nous impliquons

L'utilisation de technologies d'identification et de reconnaissance représente la violation ultime de l'intimité de l'individu sur l'espace public. Sans discuter immédiatement de la technologie elle-même, il est important de se rendre compte des problèmes de droits humains qui sont directement posés par l'utilisation d'une telle technologie, que ce soit par l'État ou par une entreprise privée. Le traçage des déplacements et l'identification continue des habitants du territoire suisse sont une violation claire et nette de la sphère privée, l'un des droits les plus fondamentaux des individus. Une surveillance constante de la population pose ainsi des problèmes éthiques strictement incompatibles avec le principe-même de démocratie, qui n'est pleinement fonctionnelle que si le peuple et l'État s'accordent une confiance mutuelle et réciproque. Cette surveillance fait voler en éclat cette confiance. La liberté d'être soi-même disparaît alors au profit d'une conformité dangereuse et d'une auto-censure forcée.
La surveillance constante implique également des problèmes de santé publique. Le citoyen conscient d'être sous observation permanente est soumis à un stress supplémentaire qui vient s'ajouter à toutes les sources de stress déjà présentes dans notre mode de vie. Les citoyens avec un haut taux de stress sont moins heureux, moins productifs, plus enclins à la dépression, aux violences domestiques et à la prise de décision épidermique.
Les études montrent que la surveillance automatisée n'augmente pas la sécurité. Il s'agit donc d'une dépense inutile qui cache les enjeux sociaux à la source de la criminalité derrière cet écran de fumée pseudo-sécuritariste qu'est la collecte routinière des données de citoyens.
L'utilisation d'une technologie avancée dans un but clairement anti-humaniste est tout ce qui est combattu par les mouvements progressistes, que cette exploitation soit le fait de l'État ou d'une entreprise privée. Il s'agit d'un inacceptable détournement mercantile et sécuritariste d'une technologie qui devrait uniquement servir au bénéfice de l'ensemble de la communauté.
?

Une technologie qui requiert le croisement de nombreuses bases de données provenant de diverses sources:

Dans les pays qui ont mis en œuvre cette technologie, les algorithmes se basent sur le recoupement d'informations visuelles provenant de multiples sources: photos de permis de conduire (systématiquement stockées dans les bases de données étatiques), photos d'identité judiciaires, photos de papiers d'identité, etc. En elle-même, cette technologie nécessite une énorme quantité de données personnelles pour fonctionner. On reste ainsi dans la logique sécuritaire qui veut que l'on sacrifie une partie de sa vie privée et de sa liberté pour permettre la prévention de l'insécurité. Cette logique se base sur une perspective purement individualiste de la criminalité et l'idée d'isoler les éléments dangereux du reste de la société. Elle relègue dans un gros angle mort des causes souvent sociétales qui peuvent avoir autant, si ce n'est plus, d'impact sur les décisions des individus qu'une réflexion supposée complètement libre et bien informée.
?

Une technologie qui reproduit des biais socio-politiques et culturels bien implantés:

Le problème est que les prétentions mirobolantes des fabricants, qui affirment pouvoir obtenir une fiabilité et précision à 95%, ne sont pas vérifiées et difficilement vérifiables. Comme il s'agit de logiciels privatifs et qu'il n'y a pas eu d'exigences d'audit de leur fonctionnement, seules des investigations partielles ont pu être menées. Mais leurs résultats ne sont pas rassurants du tout. Si ces examens ont pu démontrer une démultiplication de l'efficacité de ces algorithmes depuis 2010, celle-ci ne concerne pas toutes les catégories de populations. Ainsi, dans les pays asiatiques, les algorithmes ont beaucoup de mal à distinguer deux visages "caucasiens", tandis qu’inversement, dans les pays européens et nord-américains, ils ont du mal à différencier une personne de couleur d'une autre. Même chose en ce qui concerne les femmes, que ces technologies ont plus de difficultés à identifier. Dit autrement, ces outils peuvent probablement identifier à 95% les types faciaux correspondant à des critères déterminés par les fabricants, lesquels se basent souvent sur des études ou des données pré-existantes qui sont, elles-mêmes, généralement biaisées. Ainsi, une des bases de données utilisées pour entraîner l'algorithme de reconnaissance faciale contient 75% d'hommes et 80% de blancs. Or, ce sont ces critères qui reflètent des biais importants, souvent issus de la logique sécuritaire et individualiste, visant à isoler les individus de la foule et qui peuvent déboucher sur de graves erreurs.
Il est donc urgent de légiférer au vu des tests déjà effectués sur le territoire suisse.
?

Pourquoi prévoir des exceptions à ce principe ?

Malgré les nombreux aspects négatifs de la surveillance automatisée, des exceptions doivent tout de même être prévues par la loi. Ces exceptions concernent la sécurité publique ainsi que la recherche scientifique. Elles restent limitées au plus haut niveau d'exigence et permettent de garantir que ces exceptions restent en adéquation avec les droits humains fondamentaux.
Les situations de sécurité concernent uniquement des cas où un danger imminent menace de manière critique la vie des habitants du canton. Dans ce cas, la balance coûts-bénéfices penche clairement du côté de l'utilisation de telles technologies. Cela reste cependant étroitement confiné à des situations d'urgence, et demeure donc par nature exceptionnel.

Arguments

Une efficacité réelle ?

Contrairement à ce que laisse croire la culture populaire, les technologies de reconnaissance faciales n'ont jamais passé le test du terrain. Mais l'influence des série TV, d'une volonté de surveillance de masse et du sentiment d'insécurité pousse nos états à s'équiper dangereusement d'outils indignes de la confiance qu'on leur donne. A-t-on besoin d'investir l'argent de nos impôts dans une technologie qui ne fonctionne pas ?

Équité face à la loi

Le traitement équitable est indispensable pour la bonne marche d'un système judiciaire sain. Des outils technologiques aujourd'hui encore mal calibrés ne peuvent pas garantir l'équité de traitement et les standards de justice auxquels nous sommes habitués. 

Protection de droits fondamentaux

Impossible de maintenir la protection de la vie privée et l'accès à l'information quand de telles quantités de données sont traitées de manière automatisée. La capacité de ces outils technologiques à reproduire des biais que nous avons mis si longtemps à combattre est bien plus élevée et tenace que les bénéfices qu'ils pourraient apporter, encore non prouvés à ce jour, .

Exceptions et limitations

La recherche scientifique est une exception bien évidente, car la connaissance est indispensable à toute décision éclairée. De plus, les exigences de la recherche peuvent être limitées par les standards de l'OpenData. Lorsque cela est indispensable, c'est avec une sévère pesée des droits et en obéissant aux exigences les plus élevées que les autorités judiciaire pourront admettre des exceptions, rares et justifiées par la plus grande rigueur.

Conclusion

Surestimées et bourrées de préjugés, les technologies de reconnaissance faciale sont aujourd'hui à proscrire de l'espace public, déjà beaucoup trop pollué par de nombreuses prises de vue intempestives.

Glossaire

?

Algorithme

Suite d'opérations simples et automatiques qui permettent d'effectuer une tâche à partir de consignes pré-programmées.
?

Reconnaissance ou identification

La reconnaissance désigne dans ce contexte le fait de reconnaître une personne donnée en comparant deux vidéos, par exemple l'une filmée lors d'une manifestation et l'autre filmée dans un train. L'identification est l'étape suivant la reconnaissance, à savoir le lien fait entre la personne reconnue et son identité, par exemple par le biais d'une comparaison avec la base de données RIPOL, ou Facebook. 
?

Surveillance de masse

Système étatique de surveillance de la population permettant à l'État de mieux contrôler les habitants de Suisse (par hypothèse).
?

Identification biométrique

Détermination de l'identité d'une personne à partir de différents critères comme par exemple l'écart entre les yeux, la largeur des épaules, la taille du corps, la façon de marcher, la couleur des yeux ou des cheveux, etc.
?

Identification faciale

Détermination de l'identité d'une personne à partir d'une banque de donnée de photos de visages.
?

Intérêts publics supérieurs

En droit, les intérêts publics supérieurs, signifie exiger le plus haut niveau de respect de nos droits fondamentaux. Une exception qui permettrait de justifier une atteinte à un droit fondamental ne peut être faite qu'après une pesée des intérêts. C'est pourquoi ces exceptions sont rares et difficiles à justifier auprès d’un juge ou devant un tribunal. Cette terminologie permettra d’assurer que les exceptions bénéficieront de la protection de notre Constitution ainsi que d’une vaste jurisprudence. (cf. Art. 36 Cst. Féd.).