A IBM anunciou ontem (24 de Outubro de 2017) que seus engenheiros conseguiram rodar um algoritmo de aprendizado de máquina (machine learning) não supervisionado em um milhão de células de memória de mudança de fase (PCM), tecnologia a qual a empresa vem trabalhando há alguns anos.

O programa de inteligência artificial encontrou correlações temporais em fluxos de dados desconhecidos, comprovando a efetividade da memória computacional. Os resultados foram aferidos em um computador comum.

A “computação em memória” ou “memória computacional” é um novo conceito que usa as propriedades físicas das memórias de computador para processar informações, além de armazená-las. Algo bem diferente da computação convencional, baseada na arquitetura von Neumann, usada em todos os computadores, celulares e diversos aparelhos de informática, que precisam fazer os dados transitarem entre a memória e o processador, tornando-os mais lentos e menos eficientes em termos energéticos.

Crédito: IBM Research

 

Em comparação com os computadores clássicos de ponta, os engenheiros calculam que esta tecnologia – ainda em fase de protótipo – produza ganhos em velocidade de processamento e em eficiência energética em 200 vezes, tornando a computação em memória extremamente interessante para sistemas de computação ultradensa, centros de dados, inteligência artificial, e também para aparelhos de baixa potência, onde a duração das baterias é algo importante.

A equipe de pesquisadores usou células de memória PCM feitas a partir de uma liga de telureto de antimônio e germânio, semicondutores que são empilhados de forma intercalada entre dois eletrodos.

Quando uma pequena corrente elétrica é aplicada ao material, ele se aquece, o que altera seu estado de amorfo (com um arranjo atômico desordenado) para cristalino (com uma configuração atômica ordenada) – esta é a mudança de fase que dá nome à tecnologia.

Para fazer os cálculos, a corrente elétrica aplicada é dosada de acordo com o dado a ser processado. A memória responde com uma dinâmica de cristalização correspondente à corrente, de forma que o resultado da operação seja expresso em seu estado de condutância final, determinado pelo processo de cristalização.

“Este é um passo importante em nossa pesquisa da física da inteligência artificial, que explora novos materiais de hardware, dispositivos e arquiteturas,” disse Evangelos Eleftheriou, PhD, IBM Fellow e que recentemente ajudou a criar memórias com três bits por célula.

“À medida que as leis de escalonamento da tecnologia CMOS se desintegram devido aos limites tecnológicos, é necessário um abandono radical da dicotomia processador-memória para contornar as limitações dos computadores atuais. Dada a simplicidade, alta velocidade e baixa energia de nossa abordagem de computação em memória, é notável que nossos resultados sejam tão parecidos com nossa abordagem clássica de referência executada em um computador von Neumann,” conclui Eleftheriou.

“Até hoje a memória era vista como um local onde meramente armazenamos informações, disse Abu Sebastian , PhD. cientista de memória exploratória e tecnologias cognitivas e principal autor do artigo. “Mas, neste trabalho, mostramos de forma conclusiva como podemos explorar a física desses dispositivos de memória para também realizar uma primitiva computacional de alto nível.”

Fonte: Nature

Taggeado em:

,

O Futuro das Coisas

Somos um ecossistema de futuros e inovação que atua para desenvolver pessoas, times e lideranças, por meio de educação e cultura de aprendizagem, conteúdo de impacto e estudos de futuros.

Ver todos os artigos