(EN) In accordance with implementations of the subject matter described herein, there is provided a solution for execution of a deep learning model. In the solution, partitioned convolutions are executed based on an input and a set of parameter values of the convolutional layer sequentially in a trusted execution environment (TEE) of a computing device. The execution of a given one of partitioned convolutions comprises: storing, into a protected memory area in the TEE, an input portion of the input to be processed by a subset of parameter values for the given partitioned convolution; determining a result of the given partitioned convolution through a single matrix multiplication operation; and removing the input portion. By combining results of the partitioned convolutions, a result of the convolution is determined. Therefore, the solution can accelerate the model execution speed and improve the storage efficiency in a highly safe TEE with limited memory resources.
(FR) Des modes de réalisation de la présente invention concernent une solution pour l'exécution d'un modèle d'apprentissage profond. Dans la solution, des convolutions partitionnées sont exécutées sur la base d'une entrée et d'un ensemble de valeurs de paramètre de la couche de convolution séquentiellement dans un environnement d'exécution de confiance (TEE) d'un dispositif informatique. L'exécution de l'une donnée des convolutions partitionnées consiste à : stocker, dans une zone de mémoire protégée dans le TEE, une portion d'entrée de l'entrée devant être traitée par un sous-ensemble de valeurs de paramètre pour la convolution partitionnée donnée ; déterminer un résultat de la convolution partitionnée donnée via une opération de multiplication à matrice unique ; et supprimer la portion d'entrée. La combinaison des résultats des convolutions partitionnées permet de déterminer un résultat de la convolution. Par conséquent, la solution peut accélérer la vitesse d'exécution du modèle et améliorer l'efficacité de stockage dans un TEE très sûr avec des ressources de mémoire limitées.