Tesla P40 vs Google TPU: кто же производительнее?

Неделю назад Nvidia опубликовала в своем блоге статью, написанную в ответ на недавно раскрытые Google подробности относительно её TPU. Напомню, что согласно компании эта интегральная схема специального назначения в 15-30 раз производительнее и в 30-80 раз энергоэффективнее связки традиционных ЦПУ и ГПУ. Сравнение было сделано c Tesla K80 (анонсирована в ноябре 2014), что вполне уместно с учетом использования TPU в дата-центрах Google начиная с 2015 года. Но также объяснимо и то, что Nvidia решила обратить внимание публики на более новую и более производительную видеокарту, Tesla P40. Сравнение делается по двум параметрам:

Читать далее

Искусственный интеллект превзошел врачей в предсказании сердечного приступа

Сообщения о превосходстве систем т.н. слабого искусственного интеллекта над человеком приходят регулярно, и на днях появилась очередная такая новость. Сотрудники Ноттингемского университета в Великобритании разработали четыре алгоритма машинного обучения (на базе «случайного леса», логистической регрессии, градиентного добавления и нейросетей), при помощи которых оценили вероятность первого сердечного приступа (или другого сердечно-сосудистого явления) в течение ближайших десяти лет у 83 тысяч пациентов.

Читать далее

Google TPU дают 30-80-кратный рост энергоэффективности по сравнению с ЦПУ и ГПУ

Google рассказала кое-какие подробности о своих процессорах (точнее — интегральных схем специального назначения, ASIC) — Tensor Processing Unit (TPU). Компания с 2015 года использует их в своих дата-центрах, ежедневно выполняющих голосовые команды сотен миллионов пользователей смартфонов и решающих другие задачи, которые требуют участия систем искусственного интеллекта. Например, с их помощью программа AlphaGo обыграла чемпиона по игре Го. Google приводит следующие данные о росте производительности и энергоэффективности TPU по сравнению с современными ЦПУ и ГПУ (упоминаются неназванная модель серверного процессора Intel с архитектурой Haswell, а также графический ускоритель Nvidia K80):

Читать далее

Как изменилось качество переводов Google с переходом на машинное обучение?

Три недели назад Google объявила, что стартовавший в конце прошлого года переход её переводческого сервиса на машинное обучение добрался наконец до русского языка. Положившись на собственные познания в английском, ваш покорный слуга не вполне точно понял текст новости и решил, что это произойдет в течение пары недель после анонса. Но на самом деле машинное обучение в переводах с русского и на русский появилось одновременно с новостью. Поэтому к сожалению у меня нет возможности сравнить качество переводов на русский язык конкретной той новости (до и после перехода на нейросети). Зато можно смело утверждать, что за эти три недели оно никак не изменилось. Что в день новости, что сегодня, её русский перевод выглядит следующим образом:

Читать далее

Как научить искусственный интеллект понимать смысл текста?

Один из волнующих меня вопросов в области искусственного интеллекта — осмысление текста. Как известно, современные нейросети относительно успешно справляются с языковыми переводами и другими задачами, но эта относительность обусловлена как раз тем, что они не понимают смысла переводимого текста.

Читать далее

ARM DynamIQ до 50 раз повысит скорость в задачах искусственного интеллекта

По мере того, как растут требования к производительности мобильных устройств, увеличивается и количество ядер в мобильных процессорах — 8-ядерные конфигурации уже несколько лет встречаются даже в бюджетных моделях. Но одновременно с ростом производительности возникла проблема снижения энергопотребления в ситуациях, когда мобильное устройство выполняет какие-то простые, не требующие большого быстродействия, задачи. В 2011 году ARM выпустила технологию big.LITTLE, которая разделила ЦПУ мобильного процессора на два или три кластера по два или четыре ядра каждый: производительный и энергосберегающий. Сегодня компания сделала следующий шаг навстречу оптимизации многоядерных процессоров и представила технологию DynamIQ.

Читать далее

Nvidia обещает автопилот 4-го уровня к концу 2018

Вчера состоялась презентация Nvidia и Bosch, посвященная сотрудничеству этих двух компаний в деле совместной разработки платформы для беспилотного автомобиля. На ней Nvidia представила дорожную карту со сроками релиза систем автопилота 3-го и 4-го уровня — по её планам это произойдет в конце этого и следующего года соответственно. Какой при этом потребуется уровень производительности не сообщается. Напомню, что новейшая модель автомобильного компьютера Xavier оснащена 8-ядерным ЦПУ и 512-ядерным ГПУ на базе архитектуры Volta, обладает быстродействием до 30 TOPS DL (трлн. операций глубокого обучения в секунду) и потребляет электроэнергию в 30 Вт. Если именно этот компьютер обеспечит автопилот 3-го уровня, то для 4-го (подразумевающего почти стопроцентный автопилот) потребуется 10-кратный рост производительности (т.е. 300 TOPS DL).

Читать далее

IBM рапортует о новых успехах ИИ в распознавании речи

На днях IBM объявила о новом достижении искусственного интеллекта в распознавании речи. В далеком 1995 году уровень ошибок в популярном бенчмарке (в данном случае наборе аудиофайлов с записью телефонных разговоров на английском языке) SWITCHBOARD составлял 43%, в 2004 — уже 15.2%, а в сентябре 2016 — 6.6%. И вот теперь IBM поставила очередной рекорд, добившись 5.5%. Успех обеспечила комбинация долгой краткосрочной памяти с языковыми моделями WaveNet и тремя т.н. сильными акустическими моделями.

Читать далее

Nvidia представила Jetson TX2

Три года назад, в первые дни 2014, Nvidia анонсировала Tegra K1 (со 192-ядерным ГПУ архитектуры Kepler), который позиционировался компанией в качестве мобильного процессора с десктопным, уровня Xbox 360 и PS3, быстродействием. К сожалению устройств с ним вышло совсем немного, но зато в марте того же года Nvidia представила Jetson TK1 — фактический готовый мини-компьютер на базе Tegra K1, который разработчики могли использовать по собственному усмотрению. Спустя полтора года, в ноябре 2015, был анонсирован Jetson TX1 (на базе Tegra X1), а сегодня Nvidia представила 3-е поколение, Jetson TX2.

Читать далее

В русский язык переводов Google приходит машинное обучение

В 2006 году Google представила сервис онлайнового языкового перевода, основанного на статистическом методе. Спустя десять лет, в конце 2016, компания объявила о запуске нового, нейро-машинного метода, который поддерживал переводы с английского и на английский в паре с восемью языками: французским, немецким, испанским, португальским, китайским, японским, корейским и турецким. А вчера стало известно, что в ближайшие две недели к ним присоединятся еще три языка — хинди, русский и вьетнамский. Согласно ранее выпущенному пресс-релизу Google, благодаря нейро-машинному переводу, который анализирует фразы целиком, а не по частям, количество ошибок перевода в разных языках уменьшается на 55%-85%. Так это или нет мы узнаем очень скоро, а пока у вас есть возможность сохранить несколько примеров перевода на основе статистического метода, чтобы потом сравнить его с нейро-машинным.

Google (1), (2)