Comment éviter que le privé dicte les règles de l’IA
Les initiatives d’OpenAI, pilier de l’IA dirigé par Sam Altman, soulèvent des questions sur la manière d’atténuer les risques sociaux et de redistribuer les bénéfices de cette révolution technologique.
La question centrale est celle de la confiance: peut-on accorder une confiance sans garde-fou à une entité privée qui propose et promeut ses propres cadres ?
Pour éviter les dérives, il faut des garde-fous: régulateurs indépendants, normes communes et mécanismes de transparence qui obligent les acteurs à rendre des comptes.
Vers une gouvernance publique et citoyenne de l’IA
Pour sortir d’un paysage dominé par le privé, une gouvernance plus équilibrée doit émerger: pouvoirs publics, chercheurs, entreprises et société civile co-construisant les règles.
Des mesures concrètes existent: évaluations d’impact social, audits indépendants et traçabilité des bénéfices pour assurer une répartition équitable.
Dans sa chronique, Stéphane Lauer, éditorialiste au Monde, rappelle que la confiance naît de garanties claires sur qui décide et sur la répartition des retombées.
