Des recherches récentes mettent en évidence une vulnérabilité critique dans les systèmes d’IA : modifier un seul nombre parmi des milliards peut entraîner des échecs catastrophiques. Cette découverte soulève des inquiétudes quant à la robustesse des modèles d’IA, notamment ceux déployés dans des domaines sensibles comme la santé et la sécurité. Les experts suggèrent que les développeurs doivent mettre en œuvre des protocoles de test plus rigoureux et des mesures de protection pour prévenir de telles vulnérabilités, garantissant que les systèmes d’IA peuvent résister à des modifications inattendues.