Meta de Zuckerberg, a annoncé son intention de rendre le code de son intelligence artificielle IA la plus avancée LLaMA disponible gratuitement aux développeurs et aux passionnés de logiciels du monde entier. Cette décision vise à faire face à la concurrence de sociétés telles que Google et Microsoft, qui ont déjà intégré l’IA générative, notamment avec ChatGPT d’OpenAI.
Le but est de résoudre plus facilement les bugs
La décision de Meta de rendre le code ouvert permettra à un plus grand nombre de personnes de détecter et de résoudre les problèmes potentiels.
La dernière version de l’IA de Meta, appelée LLaMA 2, est considérée comme beaucoup plus puissante que sa précédente. Elle a été créée avec 40% de données supplémentaires. Meta fournit également une feuille de route détaillée. Et ce dans le but d’aider les développeurs à travailler avec les vastes quantités de données qu’elle a collectées.
“Lorsque le logiciel est ouvert, davantage de personnes peuvent l’examiner pour identifier et résoudre les problèmes potentiels”,
a déclaré M. Zuckerberg dans un message sur sa page Facebook personnelle.
La décision de Meta de rendre LLaMA 2 open source signifie que le code sera librement accessible. Pour être copié, modifié et réutilisé. Les développeurs pourront ainsi créer gratuitement leurs propres chatbots en ligne, similaires à ChatGPT, en utilisant l’IA de Meta. Meta espère ainsi bénéficier des améliorations apportées par les développeurs externes tout en stimulant l’expérimentation dans le domaine de l’IA.
Craintes de certains chercheurs
Certains chercheurs expriment des inquiétudes quant aux risques liés à l’IA générative. Notamment l’augmentation de la désinformation et du spam sur Internet. Même si Meta soutient que permettre à divers programmeurs de travailler avec sa technologie est le meilleur moyen de l’améliorer. Mais d’autres entreprises comme Google, Microsoft et OpenAI ont récemment restreint l’accès à leurs technologies pour des raisons de sécurité.
Les préoccupations soulevées sont par rapport à l’utilisation de l’IA de Meta sans les garde-fous habituellement utilisés par des entreprises comme Google et Microsoft. Les modèles open source pourraient être exploités pour répandre davantage de spam. Ou la multiplication d’escroqueries financières et de désinformation sur Internet.
Meta tente de rassurer
Malgré ces inquiétudes, les dirigeants de Meta affirment que leur approche n’est pas aussi risquée qu’on pourrait le penser. Ils soutiennent que la désinformation et les discours de haine peuvent déjà être générés en grande quantité sans l’IA. Par ailleurs, Meta est capable de limiter étroitement ce type de contenu toxique sur ses plateformes, comme Facebook. Ils estiment que la diffusion de la technologie peut même renforcer la capacité de Meta et d’autres entreprises à lutter contre les abus.
Meta a effectué des tests supplémentaires pour identifier et se protéger contre d’éventuels abus avant de rendre LLaMA 2 open source. La société publiera également un guide d’utilisation responsable pour les développeurs. Cependant, ces mesures de sécurité ne s’appliqueront qu’à un seul des modèles publiés par Meta. Tandis que les développeurs pourront utiliser le code pour créer des chatbots et des programmes sans garde-fou, ce qui est considéré comme un risque par certains sceptiques.
“Meta a toujours été un grand partisan des plates-formes ouvertes, et cela a vraiment bien fonctionné pour nous en tant qu’entreprise”,
a déclaré Ahmad Al-Dahle, vice-président de l’IA générative chez Meta, dans une interview.
Vous pouvez tester la nouvelle IA ICI