Comment Apple Intelligence s’aligne sur le cadre de sécurité de l’IA de Biden

Apple a récemment rejoint 15 grandes sociétés américaines d’IA en adhérant à un ensemble de directives volontaires de sécurité en matière d’IA introduites par l’administration Biden. Ces lignes directrices, issues d’un décret publié il y a neuf mois, représentent une étape importante vers une innovation responsable en matière d’IA.

Apple a récemment annoncé sa suite de technologies d'IA sous la marque « Apple Intelligence ». Cette initiative comprend une gamme de fonctionnalités telles que l'intégration ChatGPT, la création artistique et les services de transcription, toutes prêtes à être publiées avec iOS 18. Apple Intelligence est compatible avec les modèles d'iPhone 15 Pro et les Mac équipés de puces de silicium Apple de la série M.

Les directives de sécurité de l’IA de l’administration Biden appellent les entreprises à entreprendre des tests rigoureux de leurs systèmes d’IA afin de détecter et d’atténuer les préjugés discriminatoires et les vulnérabilités de sécurité. Cela inclut le partage des résultats des tests avec le gouvernement, la société civile et les institutions universitaires, favorisant ainsi une culture d'évaluation par les pairs et de responsabilité. Bien que ces lignes directrices ne soient pas juridiquement contraignantes, elles marquent un effort crucial de la part de l’industrie technologique pour s’autoréglementer et faire face aux risques potentiels associés aux technologies d’IA.

L’implication d’Apple dans cette initiative arrive à point nommé, car elle coïncide avec le lancement imminent des fonctionnalités Apple Intelligence dans iOS 18, iPadOS 18 et macOS Sequoia. Bien qu'elle ne soit pas encore disponible en version bêta, la société s'est engagée à introduire prochainement certaines de ces fonctionnalités, avec une sortie publique complète prévue d'ici la fin de l'année. Les améliorations à venir incluent une refonte significative de Siri, tirant parti des actions dans l'application et du contexte personnel pour offrir une expérience utilisateur plus intuitive et réactive. Cette refonte devrait être entièrement réalisée d’ici le printemps 2025.

Le gouvernement fédéral, sous la direction du président Biden, a insisté sur la nécessité pour les entreprises d’IA de gagner la confiance du public. Les lignes directrices de l’administration mettent l’accent sur la protection des Américains contre les fraudes potentielles liées à l’IA, sur la promotion de l’équité et des droits civils et sur la garantie que les systèmes d’IA ne compromettent pas la sécurité nationale. Dans le cadre de ces efforts, le ministère du Commerce élaborera des normes pour l’authentification du contenu et le filigrane, en étiquetant clairement le contenu généré par l’IA pour éviter la désinformation.

La participation d’Apple à cet effort collectif souligne son engagement en faveur du développement responsable de l’IA. En intégrant des fournisseurs d'IA tiers, à commencer par ChatGPT, dans ses systèmes d'exploitation, Apple étend ses capacités d'IA tout en adhérant à des normes strictes de confidentialité et de sécurité.

Alors que l’industrie technologique fait face aux complexités de l’innovation en matière d’IA, le respect par Apple de ces directives crée un précédent pour les autres entreprises. La nature volontaire de ces mesures de protection reflète la reconnaissance par l’industrie de la nécessité de pratiques responsables en matière d’IA. Cependant, l’absence de législation formelle souligne l’importance d’une vigilance continue et de mesures proactives pour protéger les intérêts publics dans le paysage de l’IA en évolution rapide.

En savoir plus:Correction de l'erreur HRESULT 0xc80002 .NET Framework 4.0

(viaBloomberg)