Компания AMD обеспечит своим будущим графическим процессорам поддержку формата чисел с плавающей запятой bfloat16. Об этом стало известно после изучения последних обновлений библиотек открытой платформы AMD ROCm, опубликованных на GitHub.
Числа с плавающей запятой формата bfloat16 занимают в памяти 16 бит, равно как и числа формата FP16, однако они отличаются по структуре. У чисел bfloat16 на экспоненту приходится не пять бит, а восемь, как у более «крупного» формата FP32. За счёт этого bfloat16 обладает более широким динамическим диапазоном по сравнению с FP16. Это позволяет, например, точно представлять целые числа, то есть переводить int8 в bfloat16.
Формат bfloat16 был разработан Google и впервые был реализован в её тензорных вычислительных блоках Tensor Processing Unit (TPU) третьего поколения. Следом компания Intel оценила данный формат и реализовала его поддержку в новых FPGA Agilex и ускорителях Nervana NNP, а также сделала частью технологии Deep Learning Boost (DL Boost), которая уже поддерживается процессорами Ice Lake и Cascade Lake.
Числа формата bfloat16 зачастую используются в вычислениях, связанных с машинным обучение и искусственным интеллектом. Поэтому поддержка данного формата скорее будет реализована в будущих профессиональных ускорителях вычислений AMD Radeon Instinct, нежели в потребительских видеокартах Radeon RX. На текущий момент новый формат в видеокартах не представляет интереса для рядовых потребителей.
Компания AMD обеспечит своим будущим графическим процессорам поддержку формата чисел с плавающей запятой bfloat16. Об этом стало известно после изучения последних обновлений библиотек открытой платформы AMD ROCm, опубликованных на GitHub. Числа с плавающей запятой формата bfloat16 занимают в памяти 16 бит, равно как и числа формата FP16, однако они отличаются по структуре. У чисел bfloat16 на экспоненту приходится не пять бит, а восемь, как у более «крупного» формата FP32. За счёт этого bfloat16 обладает более широким динамическим диапазоном по сравнению с FP16. Это позволяет, например, точно представлять целые числа, то есть переводить int8 в bfloat16. Формат bfloat16 был разработан Google и впервые был реализован в её тензорных вычислительных блоках Tensor Processing Unit (TPU) третьего поколения. Следом компания Intel оценила данный формат и реализовала его поддержку в новых FPGA Agilex и ускорителях Nervana NNP, а также сделала частью технологии Deep Learning Boost (DL Boost), которая уже поддерживается процессорами Ice Lake и Cascade Lake. Числа формата bfloat16 зачастую используются в вычислениях, связанных с машинным обучение и искусственным интеллектом. Поэтому поддержка данного формата скорее будет реализована в будущих профессиональных ускорителях вычислений AMD Radeon Instinct, нежели в потребительских видеокартах Radeon RX. На текущий момент новый формат в видеокартах не представляет интереса для рядовых потребителей.