Listing 1 - 1 of 1 |
Sort by
|
Choose an application
On connaît déjà bien les limites de la description de certains phénomènes, comme les phénomènes sociaux, par des équations : confusion entre corrélations et causalité, biais des données, data-dredging… De plus, enfermer les individus dans le déterminisme du chiffre ne présente-t-il pas toutes les caractéristiques d’un projet de société totalitaire ? Mais l’enchantement collectif opéré par le seul énoncé du terme, vague et marketing « d’intelligence artificielle » (IA) semble aujourd’hui avoir parfaitement occulté la réalité concrète de la mécanique sous-jacente de cette dernière mode. Les exemples européens et internationaux les plus divers nous parviennent sur des utilisations sans conscience de ces nouveaux systèmes computationnels : évaluation de la dangerosité aux États-Unis, « crédit social » en Chine, tentatives de manipulations avérées de l’opinion publique sur les réseaux sociaux à l’occasion du Brexit ou de l’élection de Donald Trump. Il y aurait donc peut-être un nouvel impératif catégorique qui s’imposerait à tout citoyen : celui de comprendre les enjeux de cette société numérique, au prix d’une autopsie minutieuse, technique et politique, de ce que l’on appelle « l’IA ». Cela pour en déduire une réponse juridique forte, puisque en dressant un état en droit comparé des cadres existants en Europe et dans le monde, nous avons besoin d’instruments clarifiés pour défendre l’État de droit, la démocratie et les droits de l’homme.
Listing 1 - 1 of 1 |
Sort by
|