Un SDK contre l'extraction de modèles d'IA

Sécurisez vos modèles d'IA sur appareil contre la rétro-ingénierie avec un impact minime sur leurs performances.
Protégez votre avantage concurrentiel et votre avance technologique.

Déployez on-device sans risque de rétro-ingénierie

Le déploiement de modèles d’IA dans les applications desktop, mobiles, IoT ou encore on-premise ouvre la voie à de nouvelles opportunités commerciales. Cependant, ces modèles, une fois déployés, deviennent vulnérables à la rétro-ingénierie et à l’extraction. En savoir plus…

Sécurisez votre avantage compétitif

Un attaquant peut voler et reproduire des modèles d’IA à moindre coût, mettant en péril des années d’innovation et de recherche et développement. Ils disposent de toute une gamme d’outils pour comprendre le fonctionnement interne du code compilé : decompilateurs, visualisateurs de code, débogueurs, et des méthodes de hooking leur permettent d’accéder au logiciel et de le manipuler. De plus, avec l’accès à tous les paramètres, les attaques par exemple adversarial ou les attaques par inversion de modèle sont plus faciles à réaliser En savoir plus…

Demander une démo

Notre expertise, vos bénéfices

Une protection de qualité militaire

Protégez vos modèles d’IA aussi bien au repos que lors de leur exécution.

Une plateforme flexible

Skyld est compatible avec Android, Linux et les environnements Linux embarqués.

Installation et intégration faciles

Protégez votre modèle en quelques minutes. Conservez votre framework habituel ML.

Un impact minimal sur le temps

Obtenez une expérience utilisateur optimale avec un délai réduit au minimum.

Intégrité du modèle

Conservez 100 % de la précision de votre modèle lors du déploiement.

Gestion précise

Gérez vos licences et contrôlez le déploiement et l’utilisation de vos modèles.

from skyld import SkProtector
from models import MyModel

# Instanciez votre modèle
my_model = MyModel()

# Choisissez votre configuration de déploiement
protector = SkProtector(deployment=ONNX | TorchScript | TFLite)
# Protégez le modèle
protector.protect(my_model)
# Exportez pour le déploiement
protector.save("ProtectedModelName.onnx")
protector.save("ProtectedModelName.pt")
protector.save("ProtectedModelName.tflite")

Un SDK complet pour protéger vos modèles d'IA

Skyld SDK offre une protection de niveau militaire pour les modèles d’IA grâce à un chiffrement avancé et à des transformations algébriques, garantissant la sécurité contre la rétro-ingénierie au repos et pendant l’exécution. Le modèle protégé a le même format que le modèle original. Le framework d’exécution ML est inchangé : vous pouvez déployer en utilisant ONNX, Pytorch, TensorflowLite…

Un contrôle précis

Enfin, notre SDK vous permet de contrôler le déploiement de vos modèles. Un ensemble d’appareils à contrôler ? Nous fournissons des services de device-binding ou de GPU-binding. Un déploiement avec une date d’expiration ? Nous proposons un contrôle total sur la validité de la clé nécessaire à l’utilisation du modèle.

FAQ

Votre modèle d’IA est susceptible d’être extrait chaque fois qu’il est déployé dans des environnements non fiables : en péripherie, sur des appareils IoT, sur des smartphones et tablettes, sur des navigateurs, ou encore sur des serveurs on-premise. Il est également possible que le fournisseur de cloud accède à vos modèles.

Oui, il est relativement facile d’extraire un modèle d’IA sur un appareil si les mesures de sécurité ne sont pas suffisamment solides. Grâce à la décompilation, un attaquant peut localiser et extraire le modèle d’IA. Même si le modèle est chiffré, il peut être récupéré grâce à l’analyse dynamique : un attaquant n’a qu’à attendre le déchiffrement avant de procéder à l’inférence.

La conséquence la plus directe est le vol de la propriété intellectuelle. Si un modèle d’intelligence artificielle est reconstitué avec succès, il peut être réutilisé directement ou adapté à l’objectif de l’attaquant. En outre, l’accès au modèle d’IA facilite des attaques plus avancées telles que les exemples antagonistes et les inversions de modèle. Vous pouvez en savoir plus sur l’attaque par inversion de modèle en lisant cet article.

Le chiffrement est facile à mettre en œuvre, mais il est également facile à contourner. En effet, même si le modèle est chiffré lorsqu’il est stocké, il reste toujours vulnérable à une attaque dynamique car il doit être dechiffré au moment de l’inférence. Un attaquant peut arrêter l’exécution de l’application à l’étape du déchiffrement et récupérer l’intégralité du modèle.

Skyld protège les modèles d’IA partout où ils sont exécutés. Les techniques développées empêchent l’attaquant d’obtenir des informations clés sur les modèles, en particulier les paramètres. Nous appliquons des transformations algébriques robustes, de sorte que les paramètres du modèle d’IA ne peuvent être extrait sur l’appareil. Ces transformations garantissent que les modèles sont protégés pendant l’exécution, même sur les GPU.

Systèmes d’exploitation: Android, Linux, Windows
Frameworks d’inférence ML: ONNX, Tensorflow(lite), Keras.

Skyld protège différents types de réseaux neuronaux : CNN, RNN, LSTM, Transformers et Vision Transformers, LLM. Pour obtenir la liste de tous les modèles testés, veuillez nous contacter.

Notre protection n’a pas d’impact sur la précision du modèle. Quant à la performance, elle dépend de l’architecture spécifique du modèle utilisé, généralement en dessous de 20% d’impact. Pour une évaluation sur votre cas d’usage, n’hésitez pas à nous contacter.

Vous avez des questions sur la protection de votre modèle d'IA ? Notre équipe d'experts est là pour vous aider. Que vous ayez besoin de conseils sur les bonnes pratiques à adopter, que vous ayez des défis spécifiques à relever, ou que vous ayez besoin de conseils sur l'intégration de notre solution, nous sommes à vos côtés à chaque étape du processus. Fixons un rendez-vous.

Demander une démo