Un agriculteur prend une décision erronée après avoir interrogé un outil utilisant l’Intelligence artificielle (IA). Qui est responsable ?

L’IA reste un outil qui est censé ne pas prendre de décisions, il suggère des réponses à l’utilisateur et c’est à ce dernier de les contrôler et de les vérifier : c’est sous sa responsabilité pleine et entière. L’outil n’est qu’une aide à la décision et n’est jamais la décision. L’agriculteur doit savoir que l’application qu’il en fera est à ses risques et périls.

L’éditeur ou le déployeur de l’outil ne pourrait pas être mis en responsabilité ?

La responsabilité des produits défectueux est la seule qui pourrait être engagée mais elle reste théorique. Il faudrait démontrer que le produit était défectueux, ce qui est quand même relativement compliqué.

Pourtant, l’IA est capable d’hallucination.

Malheureusement, l’hallucination ne fait pas partie des critères de défectuosité. C’est inhérent au système et c’est à l’agriculteur de le contrôler. S’il pose une question par exemple sur la meilleure période pour semer le maïs, c’est à lui de vérifier si la réponse est vraie ou non. En revanche, s’il alimente l’IA avec des documents personnels pour optimiser son rendement en maïs, il faut à tout prix qu’il veille à ce que l’espace où il dépose ses documents soit sécurisé pour que ses données soient entrantes et non sortantes. Sinon elles nourriront l’IA et pourront servir à d’autres.

Comment s’assurer que cet espace est sécurisé ?

Si l’agriculteur dépose des données personnelles, il doit vérifier au préalable le contrat d’utilisation ou les conditions générales d’utilisation. C’est le déployeur de l’outil qui vous garantit que l’espace est sécurisé sur un serveur avec un hébergement national et que les données qui sont collectées ne serviront pas à nourrir à l’IA.