Облачные вычисления как основная инфраструктура ИИ

Современная индустрия облачных вычислений зародилась в 2006 году с вводом в действие платформы Amazon Web Services, или AWS. Amazon, опираясь на свой опыт создания и обслуживания гигантских дата-центров для поддержки онлайновой торговли, решила продавать широкому кругу клиентов гибкий доступ к вычислительным ресурсам. В 2018 году AWS обслуживала более 100 дата-центров в девяти странах мира [Linda Hardesty, “WikiLeaks publishes the location of Amazon’s data centers,” SDXCentral, October 12, 2018, www.sdxcentral.com/articles/news/wikileaks-publishes-the-location-of-amazons-data-centers/2018/10/.]. Рост облачных сервисов Amazon и ее конкурентов поражает воображение. Согласно недавнему исследованию, сегодня 94 % организаций, от транснациональных корпораций до мелких и средних фирм, пользуются облачными вычислениями [“RightScale 2019 State of the Cloud Report from Flexera,” Flexera, 2019, resources.flexera.com/web/media/documents/rightscale-2019-state-of-the-cloud-report-from-flexera.pdf, p. 2.]. К 2016 году AWS росла настолько быстро, что новые вычислительные ресурсы, добавляемые Amazon к своей системе каждый день, были сопоставимы со всеми возможностями компании на конец 2005 года [Pierr Johnson, “With the public clouds of Amazon, Microsoft and Google, big data is the proverbial big deal,” Forbes, June 15, 2017, www.forbes.com/sites/johnsonpierr/2017/06/15/with-the-public-clouds-of-amazon-microsoft-and-google-big-data-is-the-proverbial-big-deal/.].

До появления облачных провайдеров фирмам и организациям приходилось покупать и обслуживать собственные серверы и программное обеспечение и иметь команду высокооплачиваемых специалистов для поддержки и апгрейда систем. Благодаря облачным вычислениям значительная часть этих задач отдается на аутсорсинг таким провайдерам, как Amazon, способным обеспечить эффективность благодаря эффекту масштаба. Облачные серверы обычно располагаются в огромных зданиях площадью сотни тысяч квадратных метров, стоимостью больше миллиарда долларов. Доступ к облачным сервисам часто предоставляется по запросу, когда клиент пользуется вычислительными мощностями, хранением данных и приложениями столько, сколько нужно, и платит только за потребленные ресурсы.

Несмотря на огромный физический размер зданий для размещения облачных серверов, все там настолько автоматизировано, что нередко обслуживается поразительно малочисленным персоналом. Сложные алгоритмы, управляющие практически всеми процессами, обеспечивают уровень точности, недостижимый при непосредственном контроле человека. Даже потребление электроэнергии — оно огромно — и отвод большого количества тепла, выделяемого десятками тысяч серверов, во многих случаях оптимизируются непрерывно. Одной из первых практических реализаций разработок компании DeepMind в области ИИ стала система глубокого обучения, способная оптимизировать работу систем охлаждения в дата-центрах Google. DeepMind заявляет, что ее нейронная сеть, которая обучалась на массиве данных от сенсоров, размещенных во всех помещениях дата-центра Google, смогла почти на 40 % сократить расход энергии на охлаждение [Richard Evans and Jim Gao, “DeepMind AI reduces Google data centre cooling bill by 40 %,” DeepMind Research Blog, July 20, 2016, deepmind.com/blog/article/deepmind-ai-reduces-google-data-centre-cooling-bill-40.]. Алгоритмическое управление дает реальный выигрыш. Как показало исследование, отчет о котором был опубликован в феврале 2020 года, «если объем вычислений, выполняемых дата-центрами, вырос с 2010 по 2018 год примерно на 550 %, то потребление энергии увеличилось за тот же период лишь на 6 %» [Urs Hölzle, “Data centers are more energy efficient than ever,” Google Blog, February 27, 2020, www.blog.google/outreach-initiatives/sustainability/data-centers-energy-efficient/.]. Разумеется, автоматизация влияет на потребность в персонале. Переход к облачным вычислениям и последовавшее за ним исчезновение огромного числа рабочих мест для технических специалистов, когда-то обслуживавших вычислительные ресурсы в тысячах организаций, вероятно, внесли существенный вклад в прекращение стремительного роста занятости в технологической сфере, наблюдавшегося в конце 1990-х годов.

Бизнес-модель на основе облачных вычислений очень прибыльна, и между основными провайдерами идет острая конкуренция. AWS — самое прибыльное направление деятельности Amazon: прибыли от него намного превосходят все, что компания зарабатывает на электронной торговле. В 2019 году прибыль от AWS выросла на 37 %, достигнув $8,2 млрд, а в целом на облачный сервис приходится около 13 % прибыли компании [Ron Miller, “AWS revenue growth slips a bit, but remains Amazon’s golden goose,” TechCrunch, July 25, 2019, techcrunch.com/2019/07/25/aws-revenue-growth-slips-a-bit-but-remains-amazons-golden-goose/.]. Платформа AWS доминирует на рынке, занимая около трети глобального объема облачных вычислений. Azure, служба Microsoft, созданная в 2008 году, и Google Cloud Platform, введенная в действие в 2010 году, также занимают значительные доли на рынке. IBM, китайский гигант интернет-торговли Alibaba и Oracle столь же важные игроки.

Правительственные структуры сегодня в той же мере зависят от облачных вычислений, что и предприятия. В 2019 году сложности и подковерная борьба, неизбежные в этой сфере, оказались в центре всеобщего внимания из-за неожиданной политизации проекта Пентагона JEDI. JEDI, что расшифровывается как «Объединенная оборонная инфраструктура» (Joint Enterprise Defense Infrastructure), — это десятилетний контракт стоимостью $10 млрд на хранение огромных объемов информации и предоставление программных ресурсов и возможностей ИИ Министерству обороны США. Первый скандал разразился в Google, когда ее сотрудники, большинство которых имеют взгляды, весьма близкие к крайне левому полюсу политического спектра, воспротивились планам компании участвовать в тендере по оборонному контракту. Из-за протестов собственных работников корпорации пришлось сойти с дистанции — Google выбыла из конкурса всего за три дня до подачи заявок на участие в создании JEDI [John Bonazzo, “Google exits Pentagon ‘JEDI’ project after employee protests,” Observer, October 10, 2018, observer.com/2018/10/google-pentagon-jedi.].

В конце концов Пентагон отдал проект Microsoft Azure, но Amazon, считавшаяся наиболее вероятным претендентом на победу вследствие лидирующего положения в этой области, немедленно заявила, что это решение политически мотивировано. В декабре 2019 года Amazon подала иск, в котором охарактеризовала это решение как необъективное и продиктованное явной враждебностью президента Дональда Трампа к генеральному директору Amazon Джеффу Безосу. Безосу также принадлежит The Washington Post, критически относившаяся к администрации Трампа. В феврале 2020 года федеральный судья наложил судебный запрет, временно заблокировавший передачу контракта Microsoft [Annie Palmer, “Judge temporarily blocks Microsoft Pentagon cloud contract after Amazon suit,” CNBC, February 13, 2020, www.cnbc.com/2020/02/13/amazon-gets-restraining-order-to-block-microsoft-work-on-pentagon-jedi.html.]. Спустя месяц Министерство обороны объявило, что заново обдумает свое решение [Lauren Feiner, “DoD asks judge to let it reconsider decision to give Microsoft $10 billion contract over Amazon,” CNBC, March 13, 2020, www.cnbc.com/2020/03/13/pentagon-asks-judge-to-let-it-reconsider-its-jedi-cloud-contract-award.html.].

Все это ясно показывает, насколько яростной и в некоторых случаях политизированной будет дальнейшая битва за рынок облачных вычислений. В центре конкурентной борьбы находится искусственный интеллект, обретающий все большую важность для продуктов, предлагаемых ведущими провайдерами облачных вычислений. Коммерческое значение глубокого обучения первыми продемонстрировали технологические гиганты, создав передовые сервисы для конечных потребителей и бизнеса. Например, нейронные сети, созданные на базе специализированного оборудования во внутренних дата-центрах, обеспечивают работу таких служб, как Alexa от Amazon, Siri от Apple и Google-сервисов Assistant и Translate. На сегодняшний день приложения на основе глубокого обучения далеко ушли от этой отправной точки, полностью переместившись в облачные сервисы и став одним из важнейших средств дифференциации провайдеров. Например, Google воспользовалась популярностью платформы TensorFlow и предложила клиентам своего облачного сервиса прямой доступ к мощному оборудованию на основе тензорных процессоров. Amazon также поддерживает функцию глубокого обучения, используя новейшие графические процессоры и давая возможность своим клиентам пользоваться приложениями, созданными на основе TensorFlow или других платформ машинного обучения. Amazon даже утверждает, что 85 % облачных ИИ-приложений, разработанных с помощью TensorFlow, работают на базе ее собственной платформы AWS [“TensorFlow on AWS,” Amazon Web Services, accessed May 4, 2020, aws.amazon.com/tensorflow/.].

Ведущие компании, занимающиеся облачными сервисами, постоянно предлагают все более гибкие и совершенные инструменты и быстро реагируют на любое преимущество, достигнутое конкурентами. Вот один из примеров инноваций. В марте 2020 года Intel создала экспериментальную нейроморфную вычислительную систему, доступ к которой можно получить через облако. Эта система, состоящая из 768 процессоров Loihi, разработанных Intel по образцу человеческого мозга, содержит 100 млн аппаратных нейронов — примерно столько же, сколько мозг мелкого млекопитающего [Kyle Wiggers, “Intel debuts Pohoiki Springs, a powerful neuromorphic research system for AI workloads,” VentureBeat, March 18, 2020, venture beat.com/2020/03/18/intel-debuts-pohoiki-springs-a-powerful-neuromorphic-research-system-for-ai-workloads/.]. Если подобная архитектура окажется эффективной, то вскоре, безусловно, развернется битва на поле нейроморфности между ведущими поставщиками облачных вычислений. Результатом попыток компаний превзойти друг друга и увеличить долю растущего рынка вычислительных ресурсов, ориентированных на ИИ, стало появление облачной экосферы, изначально строившейся с целью предоставления доступа к искусственному интеллекту.

Миллиард долларов, вложенный Microsoft в 2019 году в компанию по изучению ИИ OpenAI, которая наряду с принадлежащей Google DeepMind является лидером в расширении границ глубокого обучения, подчеркивает естественную синергию облачных вычислений и искусственного интеллекта. OpenAI сможет использовать вычислительные ресурсы, принадлежащие службе Azure, — это чрезвычайно важно в свете ее стремления создавать все более крупные нейронные сети. Только облако может предоставить огромные вычислительные мощности, требующиеся OpenAI для исследований. Microsoft, со своей стороны, получает доступ к практическим инновациям, появляющимся в процессе работы OpenAI над созданием универсального искусственного интеллекта. Надо полагать, что это приведет к появлению приложений и возможностей, которые можно будет встроить в облачные сервисы Azure. Не менее важно и то, что бренд Azure выигрывает от ассоциации с одним из мировых лидеров в исследовании ИИ, а это улучшает позиции Microsoft в конкуренции с Google — признанным лидером в области ИИ — отчасти благодаря владению компанией DeepMind [Jeremy Kahn, “Inside big tech’s quest for human-level A.I.,” Fortune, January 20, 2020, fortune.com/longform/ai-artificial-intelligence-big-tech-microsoft-alphabet-openai/.].