Les entreprises IA sont prévenues : elles ne peuvent pas faire n’importe quoi pour entraîner leurs modèles d’intelligence artificielle. Piller des œuvres sans l’autorisation de leurs auteurs peut en effet coûter très, très cher : Anthropic a ainsi accepté de signer un chèque énorme pour éteindre une class action. Les plaignants accusent le créateur de Claude d’avoir entraîné son IA avec des millions de livres piratés.
Pour aller plus loin, lisez cet article - Un contenu original publié sur ce site
