ChatGPT a tort : quand les employés sont responsables des erreurs

L’intelligence artificielle fait depuis longtemps partie du travail quotidien : elle formule des e-mails, crée des textes, soutient les décisions du personnel et évalue les performances. Mais lorsque les systèmes d’IA commettent des erreurs, la faute revient-elle à l’utilisateur ? Le patron ? Ou l’entreprise est-elle responsable ?

L’avocat du travail Pascal Verma souligne combien il est difficile d’y répondre juridiquement. Le spécialiste du droit du travail décrit le sujet sur FOCUS en ligne comme « tout sauf banal » et « très complexe ».

La responsabilité dépend donc toujours fortement des circonstances de chaque cas – en particulier du résultat du travail qui est incorrect et du contexte dans lequel l’outil d’IA a été utilisé.

En cas de doute, l’employeur est responsable

Si les salariés utilisent l’IA pour des tâches qui leur ont été confiées dans leur contrat de travail ou qui sont dans l’intérêt de l’entreprise, la situation juridique est généralement claire. « Si un employé utilise un outil d’IA pour une activité qui lui a été confiée dans le cadre d’un contrat de travail ou qui est exercée dans l’intérêt de l’employeur pour l’entreprise, on arrive généralement à la conclusion que l’employeur est responsable à l’extérieur, par exemple envers un client, des résultats de travail incorrects générés par l’IA. »

Remarquable : même si l’utilisation de l’IA est officiellement interdite, la responsabilité peut incomber à l’employeur. Le facteur décisif est de savoir si le comportement de l’employé va nettement au-delà de ce qu’il était autorisé à faire.

C’est précisément pourquoi il est si important que les entreprises créent des règles contraignantes. Verma souligne que les employeurs doivent « mettre en place et surveiller l’utilisation de l’IA et, si nécessaire, faire respecter le non-respect par des moyens tels que des avertissements et des licenciements comportementaux ».

Quand les salariés sont responsables d’eux-mêmes

Toutefois, la responsabilité personnelle des salariés ne peut être totalement exclue. «En cas de résultats de travail particuliers, la responsabilité externe du collaborateur entre également en considération», explique Verma. Il serait alors responsable envers les tiers tels que les clients ou les partenaires commerciaux. Cela s’applique par exemple si les droits d’auteur sont violés par un contenu généré par l’IA. Dans de tels cas, le salarié pourrait être directement responsable en plus de l’employeur.

La réparation dite interne des dommages s’applique à la relation juridique entre l’employeur et l’employé. « L’employé n’est pas responsable si le dommage n’a été causé que par une légère négligence. » En cas de négligence modérée, une responsabilité partielle est possible, mais en cas de négligence grave ou intentionnelle, la responsabilité totale est généralement possible. En outre, l’employeur peut utiliser la voie dite de recours pour vérifier s’il peut faire réparer le dommage par le fournisseur de logiciels, par exemple en cas de défauts du produit.

L’IA ne peut pas prendre ces décisions seule

Les décisions qui ont un fort impact sur les autres salariés sont particulièrement sensibles en matière de droit du travail. Verma fait ici clairement référence au RGPD : « Les décisions qui ont des effets juridiques importants sur les employés ou qui ont un impact similaire sur eux ne doivent pas être prises de manière exclusivement automatique. »

Cela comprend, entre autres, les licenciements, la sélection des candidats, les projets de quarts de travail ou de vacances et les évaluations de performance. L’IA peut apporter son soutien dans ces cas-là, mais : « Une personne physique qui dispose de suffisamment d’expertise pour évaluer et de la liberté de prendre des décisions doit prendre la décision finale. »

Les managers restent responsables

L’IA ne signifie pas non plus une réduction de la responsabilité des managers ; En parler ne sert à rien : si le patron essaie de détourner sa propre responsabilité en faisant référence à l’automatisation ou à la décision de l’IA, « en règle générale, cela ne devrait pas réussir », précise Verma.

Selon l’organisation et la responsabilité, une obligation supplémentaire pourrait même surgir, par exemple pour surveiller les règles de l’IA ou pour vérifier la plausibilité des résultats.

Quels sont les droits des employés

La protection des données et la codétermination jouent un rôle central pour les salariés. Sont interdites « les décisions prises automatiquement qui ont des effets juridiques importants sur les employés ou qui ont un impact significatif similaire sur eux ».

En outre, le RGPD impose de nombreuses obligations d’information dont la violation peut donner lieu à des demandes de dommages-intérêts. Dans les entreprises dotées d’un comité d’entreprise, un instrument de protection supplémentaire est ajouté : « Le comité d’entreprise dispose d’un droit de codétermination étendu lors de l’introduction et de l’utilisation des systèmes d’IA », à condition qu’ils soient adaptés au contrôle.

La loi sur l’IA oblige les entreprises à agir

Avec le European AI Act, les exigences ne cessent de croître. Les entreprises devraient en même temps s’occuper intensivement du cadre juridique et mettre en œuvre des mesures concrètes de conformité. Verma souligne que les entreprises ne pourront pas éviter de publier certains outils d’IA, de déterminer leur utilisation et de former leurs employés ; En bref : mettre en place des règles claires et contraignantes en matière d’intelligence artificielle afin que les salariés sachent exactement ce qu’ils sont autorisés à faire et ce qu’ils ne sont pas autorisés à faire.

Mais les collaborateurs sont également sollicités : les résultats de l’IA ne doivent pas être adoptés sans contrôle, mais doivent être « vérifiés quant à leur conformité juridique, par exemple en matière de droit d’auteur ou de droits de la personne, et évalués sur la base de l’expertise professionnelle ».





Laisser un commentaire