La plainte pointe des manquements suspects d’OpenAI
Une famille canadienne porte plainte contre OpenAI, estimant que la société n’a pas su freiner l’usage dangereux de son intelligence artificielle et que cette négligence est liée à la tragédie qui a coûté la vie à huit personnes.
Selon les avocats des plaignants, le compte utilisé par le tireur était bloqué plusieurs mois avant l’attaque en raison de messages alarmants; toutefois, aucun signalement n’a été transmis aux autorités compétentes.
La famille affirme que des protocoles de sécurité plus stricts et une coordination renforcée avec les forces de l’ordre auraient pu moduler le cours des événements.
Les détails du cas et les implications réglementaires
Sur le plan juridique, la plainte met en avant une faute de négligence attribuable au fournisseur d’un service logiciel, estimant qu’OpenAI avait l’obligation de mettre en place des mécanismes de détection et d’alerte des menaces crédibles.
Ce dossier s’inscrit dans un débat plus large sur la responsabilité des plateformes d’IA face à des signaux précurseurs de violence et sur les obligations de signalement envers les autorités.
À l’heure actuelle, le procès est en phase préparatoire et pourrait influencer les futures règles de sécurité et de transparence imposées aux acteurs du secteur, tout en laissant place à des négociations et à des décisions judiciaires.
