OpenAI utilise GPT-4 pour mettre au point un système de modération de contenu alimenté par l’IA
Que ce soit sur les forums ou les réseaux sociaux, la modération du contenu est essentielle. Et, jusqu’à présent, celle-ci était principalement effectuée par des humains. Cependant, il se pourrait bien que l’IA soit également capable d’assumer ce rôle.
Bien que ChatGPT puisse évoluer en termes d’intelligence, l’IA est désormais capable de remplacer bon nombre d’emplois. La grève des scénaristes américains vise d’ailleurs particulièrement l’IA, ces professionnels craignant que cette technologie ne mette en péril leurs emplois. Par ailleurs, un PDG a licencié 90 % de son personnel, affirmant que l’IA fournissait de meilleurs résultats. Mais cette fois, OpenAI s’attaque à une tâche pourtant très subjective : la modération du contenu en ligne.
OpenAI explique ainsi que GPT-4 peut non seulement contribuer à prendre des décisions en matière de modération de contenu, mais aussi participer à l’élaboration des politiques. L’entreprise affirme que le modèle peut analyser les diverses réglementations et subtilités des politiques de contenu, s’adaptant instantanément à toute mise à jour.
ChatGPT : le rôle de l’IA doit être supervisé par un humain
OpenAI déclare ainsi : “Nous pensons que cela offre une perspective positive de l’avenir des plateformes numériques, où l’IA peut aider à modérer le flux en ligne conformément aux politiques spécifiques de la plateforme, et soulager la charge mentale d’un grand nombre de modérateurs humains“.
GPT-4 devrait donc soutenir les modérateurs humains sans pour autant les remplacer complètement. En effet, la charge mentale inhérente à ce métier peut entraîner de nombreux problèmes. En 2020, Meta a d’ailleurs accepté de verser une indemnité d’au moins 1 000 dollars à plus de 11 000 modérateurs, en raison de problèmes de santé mentale liés à l’examen de contenus publiés sur Facebook.
Ainsi, comme d’habitude, OpenAI souligne que le travail réalisé par l’IA doit être rigoureusement supervisé par un humain. La société ajoute ainsi : “Les jugements des modèles de langage sont susceptibles d’être biaisés de manière indésirable, en fonction des biais qui ont pu être intégrés dans le modèle pendant son apprentissage. Comme pour toute application d’IA, les résultats devront être minutieusement contrôlés, validés et ajustés, tout en gardant l’humain dans la boucle“.
Source : engadget