Intel Xeon в несколько раз превзошёл восемь Tesla V100 при обучении нейросети - «Новости сети»
Защита форм - безопасно защищает формы на вашем сайте от спама
Защита форм - безопасно защищает формы на вашем сайте от спама
«Fallout 5 уже здесь»: геймплей ролевого экшена Atomfall про постъядерную Англию понравился игрокам - «Новости сети»
«Fallout 5 уже здесь»: геймплей ролевого экшена Atomfall про постъядерную Англию понравился игрокам - «Новости сети»
Теперь каждый может обучить себе рассуждающий ИИ всего за $450 — открыт исходный код Sky-T1 - «Новости сети»
Теперь каждый может обучить себе рассуждающий ИИ всего за $450 — открыт исходный код Sky-T1 - «Новости сети»
ИИ заменит человека в качестве основного пользователя приложений к 2030 году - «Новости сети»
ИИ заменит человека в качестве основного пользователя приложений к 2030 году - «Новости сети»
Apple Watch ждёт масштабное обновление: новый дизайн, спутниковая связь и мониторинг давления - «Новости сети»
Apple Watch ждёт масштабное обновление: новый дизайн, спутниковая связь и мониторинг давления - «Новости сети»
Глава Nvidia рассказал, почему цена $2000 за GeForce RTX 5090 оправдана - «Новости сети»
Глава Nvidia рассказал, почему цена $2000 за GeForce RTX 5090 оправдана - «Новости сети»
Разработчики WhatsApp почему-то уверены, что пользователи жаждут общаться с ИИ-ботами - «Новости сети»
Разработчики WhatsApp почему-то уверены, что пользователи жаждут общаться с ИИ-ботами - «Новости сети»
Илон Маск хотел похвастаться высокоуровневым геймплеем в Path of Exile 2, но не разобрался в базовых механиках — игроки заподозрили подвох - «Новости сети»
Илон Маск хотел похвастаться высокоуровневым геймплеем в Path of Exile 2, но не разобрался в базовых механиках — игроки заподозрили подвох - «Новости сети»
Apple теряет долю рынка в Китае: eSIM тормозят продажи iPhone - «Новости сети»
Apple теряет долю рынка в Китае: eSIM тормозят продажи iPhone - «Новости сети»
AMD пообещала для Radeon RX 9070 и RX 9070 XT хороший баланс цены и производительности - «Новости сети»
AMD пообещала для Radeon RX 9070 и RX 9070 XT хороший баланс цены и производительности - «Новости сети»
Новости мира Интернет » Новости » Новости мира Интернет » Intel Xeon в несколько раз превзошёл восемь Tesla V100 при обучении нейросети - «Новости сети»


Центральный процессор в несколько раз обошёл по производительности связку сразу из восьми графических процессоров при глубоком обучении нейросетей. Звучит как что-то из научной фантастики, не так ли? Но исследователи из Университета Райса (Rice University) с помощью Intel Xeon доказали, что это реально.


Графические процессоры всегда намного лучше подходили для глубокого обучения нейросетей, нежели центральные процессоры. Это связано с архитектурой GPU, которые состоят из множества мелких ядер, которые способны параллельно выполнять очень много небольших задач, что как раз и требуется для тренировки нейросетей. Но оказалось, что и центральные процессоры при должном подходе могут быть очень эффективны в глубоком обучении.


Сообщается, что при использовании алгоритма глубокого обучения SLIDE процессор Intel Xeon с 44 ядрами оказался в 3,5 раза производительнее, нежели связка из восьми ускорителей вычислений NVIDIA Tesla V100. Пожалуй, это первый раз, когда CPU не только сравнялся с GPU в подобном сценарии, но и превзошёл их, причём очень заметно.


В выпущенном университетом пресс-релизе говорится, что алгоритм SLIDE не нуждается в графических процессорах, так как использует совершенно иной подход. Обычно при обучении нейросетей используется методика обратного распространения ошибки обучения, которая использует перемножение матриц, которое является идеальной нагрузкой для GPU. В свою очередь SLIDE превращает обучение в проблему поиска, которая решается с помощью хеш-таблиц.


Информация сайта - «print-prime.ru»





По словам исследователей, это значительно снижает вычислительные затраты на обучение нейросетей. Для того, чтобы получить точку отсчёта, исследователи использовали имеющуюся в лаборатории Университета Райса систему с восемью ускорителями Tesla V100 для обучения нейросети с использованием библиотеки Google TensorFlow. Процесс занял 3,5 часа. После, аналогичная нейросеть была обучена с помощью алгоритма SLIDE на системе с одним 44-ядерным процессором Xeon, и это заняло всего лишь 1 час.


Тут стоит отметить, что в ассортименте Intel сейчас нет 44-ядерных моделей процессоров. Возможно, исследователи использовали какой-то кастомный или ещё не вышедший чип, но это маловероятно. Куда более вероятно, что здесь была использована система с двумя 22-ядерными Intel Xeon, или просто в пресс-релизе допущена ошибка, и речь идёт о 44 потоках, которые обеспечил один 22-ядерный процессор. Но в любом случае это не умаляет самого достижения.


Конечно, алгоритму SLIDE ещё предстоит пройти множество проверок и доказать свою эффективность, а также отсутствие каких-либо особенностей и подводных камней. Однако то, что мы видим сейчас, очень впечатляет и действительно может сильно повлиять на развитие индустрии.

Центральный процессор в несколько раз обошёл по производительности связку сразу из восьми графических процессоров при глубоком обучении нейросетей. Звучит как что-то из научной фантастики, не так ли? Но исследователи из Университета Райса (Rice University) с помощью Intel Xeon доказали, что это реально. Графические процессоры всегда намного лучше подходили для глубокого обучения нейросетей, нежели центральные процессоры. Это связано с архитектурой GPU, которые состоят из множества мелких ядер, которые способны параллельно выполнять очень много небольших задач, что как раз и требуется для тренировки нейросетей. Но оказалось, что и центральные процессоры при должном подходе могут быть очень эффективны в глубоком обучении. Сообщается, что при использовании алгоритма глубокого обучения SLIDE процессор Intel Xeon с 44 ядрами оказался в 3,5 раза производительнее, нежели связка из восьми ускорителей вычислений NVIDIA Tesla V100. Пожалуй, это первый раз, когда CPU не только сравнялся с GPU в подобном сценарии, но и превзошёл их, причём очень заметно. В выпущенном университетом пресс-релизе говорится, что алгоритм SLIDE не нуждается в графических процессорах, так как использует совершенно иной подход. Обычно при обучении нейросетей используется методика обратного распространения ошибки обучения, которая использует перемножение матриц, которое является идеальной нагрузкой для GPU. В свою очередь SLIDE превращает обучение в проблему поиска, которая решается с помощью хеш-таблиц. Информация сайта - «print-prime.ru» По словам исследователей, это значительно снижает вычислительные затраты на обучение нейросетей. Для того, чтобы получить точку отсчёта, исследователи использовали имеющуюся в лаборатории Университета Райса систему с восемью ускорителями Tesla V100 для обучения нейросети с использованием библиотеки Google TensorFlow. Процесс занял 3,5 часа. После, аналогичная нейросеть была обучена с помощью алгоритма SLIDE на системе с одним 44-ядерным процессором Xeon, и это заняло всего лишь 1 час. Тут стоит отметить, что в ассортименте Intel сейчас нет 44-ядерных моделей процессоров. Возможно, исследователи использовали какой-то кастомный или ещё не вышедший чип, но это маловероятно. Куда более вероятно, что здесь была использована система с двумя 22-ядерными Intel Xeon, или просто в пресс-релизе допущена ошибка, и речь идёт о 44 потоках, которые обеспечил один 22-ядерный процессор. Но в любом случае это не умаляет самого достижения. Конечно, алгоритму SLIDE ещё предстоит пройти множество проверок и доказать свою эффективность, а также отсутствие каких-либо особенностей и подводных камней. Однако то, что мы видим сейчас, очень впечатляет и действительно может сильно повлиять на развитие индустрии.

Смотрите также

А что там на главной? )))



Комментарии )))