Samsung achève le développement de HBM-PIM, la première mémoire haute bande passante du secteur avec processeur AI sur puce
Si l'on considère uniquement les performances brutes et les besoins en énergie, la mémoire HBM (High Bandwidth Memory) est le choix supérieur à la GDDR en matière de mémoire vive graphique. Cependant, Nvidia et AMD ne proposent toujours pas de HBM sur leurs GPU de jeux grand public et réservent cette option uniquement aux cartes de calcul haut de gamme qui sont principalement utilisées dans les applications d'IA et les environnements HPC. En effet, la GDDR est plus de 50% plus abordable à mettre en œuvre aux prix actuels du marché. Samsung, l'un des principaux producteurs de HBM, pourrait contribuer à faire baisser le prix des puces HBM "ordinaires", car elle se prépare maintenant à lancer l'architecture HBM-PIM (traitement en mémoire) plus avancée.
Chaque nouvelle puce HBM-PIM intègre un composant de traitement AI qui double essentiellement les performances des solutions HBM2 Aquabolt ordinaires tout en réduisant la consommation d'énergie de plus de 70 %. Le processeur AI sur puce peut être programmé et adapté pour diverses charges de travail liées à l'AI, y compris la formation et l'inférence. Kwangil Park, vice-président senior de la planification des produits de mémoire de Samsung, a déclaré que la société est prête à collaborer avec les fournisseurs de solutions d'IA pour le développement d'applications PIM encore plus avancées.
Dans son communiqué de presse, Samsung explique comment les processeurs d'IA sur puce peuvent contribuer à doubler les performances. "La plupart des systèmes informatiques actuels sont basés sur l'architecture von Neumann, qui utilise des unités de processeur et de mémoire séparées pour effectuer des millions de tâches de traitement de données complexes. Cette approche de traitement séquentiel exige que les données se déplacent constamment d'avant en arrière, ce qui entraîne un goulot d'étranglement dans le système, en particulier lors du traitement de volumes de données toujours plus importants. Au lieu de cela, le HBM-PIM apporte la puissance de traitement directement là où les données sont stockées en plaçant un moteur AI optimisé par DRAM à l'intérieur de chaque banque de mémoire - une sous-unité de stockage - permettant un traitement parallèle et minimisant le mouvement des données"
Un autre grand avantage de l'architecture HBM-PIM est qu'elle ne nécessite pas de modifications matérielles ou logicielles, il n'y a donc pas de coûts supplémentaires d'intégration ou de déploiement avec les systèmes existants. Samsung indique que les puces HBM-PIM sont actuellement testées à l'intérieur des accélérateurs AI par les principaux partenaires de solutions AI et que toutes les validations devraient être terminées d'ici la fin du premier semestre 2021.
Acheter la carte de calcul AMD Radeon Instinct MI25 sur Amazon
Source(s)
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs