L’intelligence artificielle (IA) générative, développée par des outils tels que ChatGPT, Perplexity ou Le Chat, par Mistral AI, s’est diffusée rapidement auprès du grand public. Ces usages personnels ouvrent de nouvelles perspectives dans le monde professionnel, où l’essor de ces technologies transforme les pratiques, souvent à l’initiative des salariés eux-mêmes. Mais au-delà des opportunités indéniables qui ont commencé à être identifiées, ces usages appellent à une vigilance accrue.
L’IA doit rester un outil d’aide à la décision
Dès 2018, la FFB a engagé des travaux sur l’IA. Une de ses premières conclusions ? L’IA constitue un outil d’aide à la décision, car l’intelligence artificielle ne fait pas « à la place de ». Elle propose une réponse qu’il faut relire, compléter, modifier parfois. La machine peut en effet se tromper et utiliser de mauvaises sources.
L’IA impose des contrôles
La compétence métier reste essentielle, en particulier pour des usages professionnels en lien avec des enjeux assurantiels. Il est donc essentiel de connaître les jeux de données utilisés pour entraîner l’IA. Les résultats ne sont pas toujours adaptés. Attention donc aux « copiés-collés » trop rapides ! Il faut garder un esprit critique.
Les données de l’entreprise doivent être protégées
Les outils d’IA sont entraînés à partir de données (textes, photos, vidéos, plans…). Les utiliser en insérant les données de son entreprise pour poser une question leur permet de continuer à s’entraîner. Cela conduit à deux alertes. D’une part, si l’outil est en accès libre comme le sont souvent les solutions d’IA générative, il convient de ne pas divulguer de données confidentielles. Il est impératif de développer sa propre infrastructure interne sécurisée ou bien de vérifier les conditions d’utilisation de l’outil retenu.
D’autre part, il faut interroger les usages que le chef d’entreprise souhaite autoriser à ses salariés. Il s’agit d’en parler avec eux, voire d’organiser des formations sur l’usage de ces outils. Pour prévenir des risques, la FFB a d’ailleurs proposé une masterclass IA sur les questions éthiques et la protection des données en matière d’IA. La vidéo est toujours disponible. Les fédérations locales proposent également de plus en plus de formations sur le sujet.