Американские авторы двух исследований утверждают, что с помощью "термодинамических вычислений" они нашли как оптимизировать энергопотребление у нейросетей аж десять миллиардов раз, по сравнению с текущими затратами. НО есть один, серьёзный ньюанс.
При этом, исследователи признают, что решение находится пока на самом зачаточном этапе развития. Тем не менее, в мире, где ИИ и дата-центры создают огромную нагрузку на энергосистемы, такая технология, способная настолько сократить энергопотребление, могла бы стать беспрецедентным прорывом.
Термодинамические вычисления больше похожи на квантовые или вероятностные, чем на традиционные компьютерные. Они используют для решения задач шум и физическую энергию. В эксперименте, описанном в исследовательской статье, компьютеру предоставили набор изображений, после чего системе позволили снизить качество изображений.
Естественные случайные взаимодействия продолжались до достижения равновесия между компонентами. Затем компьютерам была дана задача вычислить вероятность обращения вспять этого процесса снижения качества, а затем скорректировать параметры таким образом, чтобы сделать этот процесс максимально вероятным.
В следующей статье, один из авторов работы Уайтлам описал, как этот процесс можно использовать для создания термодинамического компьютера, способного генерировать изображения рукописных цифр. Естественно, это пока очень далеко от возможностей современных систем создания изображений, видео и даже виртуальных миров, но служит важным доказательством такой концепции.
«Наши исследования свидетельствует, что возможно создать аппаратное обеспечение для выполнения определенных типов машинного обучения, — заявил Уайтлам, — в частности, генерации изображений с существенно меньшими энергозатратами, чем сейчас».
Однако, учитывая примитивность текущей технологии, он предупреждает, что до создания конкурентоспособных термодинамических ИИ. вероятно, еще очень далеко. Главным препятствием остается разработка соответствующего аппаратного обеспечения.