Steve Atkinson a présenté le résultat de ses recherches sur une nouvelle architecture pour NAM le 7 Décembre à San Diego dans un atelier à NeurIPS (Conférence Neural Information Processing Systems), sur le thème « Where Creativity Meets Computation ».
Steve a travaillé sur sur une nouvelle architecture pour NAM permettant de « caler » -ou de définir- le niveau de consommation CPU -et probablement le niveau de consommation mémoire- nécessaires à l’exécution des modèles NAM, après entraînement du modèle, en configurant le niveau de complexité/fidélité, au chargement du modèle (approche nommée « slimmable NAM »).
Partant du constant qu’on ne trouve pas de player hardware NAM pour les modèles standard a prix abordable ou budget aujourd’hui et que les lecteurs NAM abordables (Valeton, Hotone, Nux,…) utilisent tous une démarche propriétaire, Steve a décidé de proposer une solution plus universelle et plus standard, qui pourrait être adoptée dans le futur par les différents fournisseurs de matériel.
Pour faire fonctionner les modèles aujourd’hui sur des hardwares disposant de ressources CPU limitées, il est nécessaire de passer soit par une conversion propriétaire (cas des multi-effets cités ci-dessus), soit par la création de modèles simplifiés moins gourmands en ressources (les modèles NANO, FEATHER, LITE, ce qui nécessite plusieurs entrainements différents (un par architecture) et nécessite également d’empiler des tas de versions de modèles…. Pour en savoir plus à ce sujet vous pouvez consulter le 2ème article de ma série d’articles NAM ici : https://overdriven.fr/overdriven/index.php/fr/2025/08/12/nam-mise-en-oeuvre-partie-2/.
A l’instar des chargeurs d’IRs qui tronquent une IR au format supporté par le lecteur (512 points, 1024 points, 2048 points ….) et permet au hardware de limiter la complexité des opérations nécessaires pour le rendu (CPU notamment mais aussi l’espace de stockage de l’IR elle-même), la future architecture baptisée « A2 » par Steve devrait permettre d’appliquer une approche similaire aux modèles NAM : à partir d’un modèle A2 « standard » , le hardware pourra sélectionner au chargement -ou peut-être dynamiquement- un niveau de fidélité et donc de cout CPU…. Cela pourrait ouvrir des scénarios ou les conversions deviennent inutiles et ou le hardware pourrait éventuellement supporter plusieurs niveaux de fidélité : imaginez un scénario ou un multi-effets pourrait proposer de supporter le modèle standard (ou toute autre qualité « maximum » par rapport au CPU utilisé) mais imposerait ensuite une limitation en nombre de blocs additionnels et qu’en sélectionnant une option « lite » sur votre modèle NAM, le matériel vous permette d’utiliser plus de blocs d’effets….
L’idée de Steve est de proposer cette approche à la communauté et de voir comment elle réagira … une affaire à suivre dans les prochains mois …
Consulter l’article original d’annonce sur le blog Neural Amp Modeler : https://www.neuralampmodeler.com/post/introducing-slimmable-nam-neural-amp-models-with-adjustable-runtime-computational-cost
Laisser un commentaire