Catecismo de computação não convencional
O que torna um novo paradigma ou tecnologia promissor? Em que ciência, pesquisa e indústria devem investir dinheiro? Existe uma vida após a eletrônica CMOS? E o tubo de vácuo estará de volta? Embora não se possa prever o futuro, ainda se pode aprender com o passado. Na última década, a computação não convencional se transformou em uma nova e importante área de pesquisa com o objetivo de olhar além dos paradigmas existentes. Nesta perspectiva, refletimos sobre o estado atual do campo e propomos um conjunto de perguntas que qualquer pessoa que trabalhe em computação não convencional deve ser capaz de responder para avaliar o potencial de novos paradigmas desde o início.
Novas tecnologias normalmente passam por ciclos. Um bom exemplo são as redes neurais, um movimento pioneiro de McCulloch e Pitts, Rosenblatt, Hebb e outros cerca de 60 anos atrás. O novo campo começou com grande promessa, senão exagero, antes de receber um grande revés quando foi mostrado por Minsky e Paper em 1969 que um perceptron de camada única não consegue nem resolver todas as funções lógicas simples. Apesar do revés inicial, as redes neurais e o aprendizado de máquina geralmente são usados hoje com muito sucesso em muitas aplicações do mundo real. Ciclo de hype da tecnologia do Gartner (Fenn, 2008) possui cinco fases principais que descrevem a maturidade de uma determinada tecnologia: (1) acionador de tecnologia, (2) pico de expectativas infladas, (3) calha de desilusão, (4) inclinação da iluminação e (5) platô de produtividade. A representação gráfica do ciclo de hype fornece uma ferramenta para visualizar como uma tecnologia evoluirá com o tempo. Usando a terminologia do Gartner, as principais redes neurais atingiram hoje o platô da produtividade. “Quando as novas tecnologias fazem promessas ousadas, como você discerne o que é comercialmente viável? E quando essas reivindicações valerão a pena? (Fenn, 2008).
Computação não convencional (também UCOMP , não clássica , não padronizada , alternativa ou de próxima geração ) ( Stepney et al., 2005 ; de Castro, 2006 ; Amos et al., 2012 ; Cerf, 2014) é um campo de pesquisa emergente com o objetivo de ir além das tecnologias e paradigmas tradicionais de computação, como a arquitetura von Neumann ou o modelo de Turing. Exemplos de paradigmas de computação não convencionais incluem computação quântica, computação óptica, computação molecular e computação química. Embora essas abordagens possam executar cálculos clássicos, geralmente não é uma maneira natural de fazê-lo. Ao contrário de buscar mudanças incrementais (ou evolutivas) dos paradigmas atuais, a computação não convencional busca mudanças revolucionárias usando novos substratos, formalismos e paradigmas. Naturalmente, quanto mais revolucionária é uma tecnologia, maior o risco que ela apresenta. Os críticos da computação não convencional geralmente argumentam que (1) a comunidade não produziu um paradigma útil que supera uma abordagem convencional e (2) que o real, os desafios práticos a serem resolvidos sempre são mantidos confortavelmente longe, por exemplo, no período de 10 a 20 anos. Usando a terminologia do Gartner novamente, a tecnologia de computação não convencional parece ter problemas para atravessar a calha da desilusão e terminar no platô da produtividade.
No entanto, os defensores da computação não convencional argumentam que comparar a não convencional com a tecnologia de ponta atual simplesmente não é uma comparação justa. Afinal, a tecnologia de ponta geralmente é o resultado de décadas de esforços de bilhões de dólares, enquanto a maioria das abordagens não convencionais já dura alguns anos, muitas vezes com um orçamento apertado.
O melhor exemplo é provavelmente o transistor CMOS. Por exemplo, em 2009, a indústria de semicondutores gastou US $ 200 bilhões em pesquisa ( Apte e Scalise, 2009 ). No mesmo ano, a Fundação Nacional de Ciências dos EUA (NSF) recebeu apenas US $ 6,49 bilhões. Só podemos imaginar o quanto qualquer tecnologia de computação emergente poderia ter sido avançada com US $ 200 bilhões. Mas qual tecnologia você escolheria?
Em seu trabalho de 2006 ( Borkar, 2006 ), Borkar esboçou três princípios que fizeram a evolução da eletrônica bem-sucedida: (1) ganho, (2) relação sinal-ruído e (3) escalabilidade. Aplicando esses três princípios aos eletrônicos passados e atuais, ele concluiu que “[.] Não há nada no horizonte que prometa substituir o CMOS pelo menos nos próximos dez a quinze anos”. Acreditamos que isso ainda é verdade em geral e talvez, como Sery et al. (2002) declarou: “A vida é CMOS” e está aqui para ficar no futuro próximo? Embora essa seja realmente uma opção plausível, ela ainda deixa muitos nichos para as abordagens de computação não convencionais se destacarem. Por exemplo, nem toda tecnologia não convencional precisa ser escalável. Os futuros computadores biomoleculares podem usar algumas centenas de portas lógicas apenas para executar, por exemplo, algumas funções básicas para analisar os níveis de açúcar no sangue e controlar a liberação de alguns medicamentos. Em primeiro lugar, esses sistemas corporais precisam ser biocompatíveis e altamente confiáveis. Velocidade e escalabilidade, por outro lado, não são um problema.
Nesta perspectiva, gostaríamos de propor um novo conjunto de perguntas inspiradas no Catecismo de Heilmeier ( Shapiro, 1994), bem como observações do campo de computação não convencional na última década. Um “catecismo” é uma lista de princípios na forma de perguntas e respostas usadas para educar as pessoas. George H. Heilmeier argumentou que quem propõe um novo projeto deve tentar responder a essas perguntas. Comparadas ao catecismo de Heilmeier, as novas questões que propomos aqui são específicas para a computação não convencional. Enquanto nos concentramos em máquinas de computação fisicamente realizáveis, o campo da computação não convencional é amplo e também abrange novos modelos teóricos de cálculos que podem não estar necessariamente fundamentados na realidade física, por exemplo, modelos que dependem de recursos, tempo ou precisão infinitos.
Catecismo da computação não convencional
-
Que desafio (ou problema ou aplicativo) você está tentando enfrentar com uma abordagem de computação não convencional?
-
Quais são as métricas para enfrentar esse desafio?
-
Quais são os limites fundamentais da computação com os quais você deve se preocupar?
-
Como o sistema é controlado e programado?
-
Como você interage com seu sistema não convencional?
Embora certamente existam muitas outras perguntas, posso perguntar, considerando o atual estado do campo, as cinco acima das mais importantes para garantir progresso adicional.
A seguir, explicaremos brevemente essas perguntas. E, como é comum em um catecismo real, também forneceremos algumas respostas, ou pelo menos outras questões a serem consideradas. Naturalmente, é tarefa do proponente da abordagem de computação não convencional fornecer respostas a essas perguntas, porque as respostas gerais dificilmente são possíveis. Em vez disso, eles serão altamente dependentes do desafio em questão.
O desafio
Fazer algo, apenas porque isso pode ser feito, raramente leva a inovações revolucionárias. Por exemplo, poderíamos encontrar facilmente algum dispositivo estranho que possa executar operações lógicas simples de alguma maneira. No entanto, que idéias obtivemos fazendo isso além de uma simples prova de conceito? É certo que isso pode ser valioso, mas os desafios reais geralmente só se tornam aparentes quando se começa a integrar os componentes em um sistema maior. Em vez de focarmos em pequenas provas de conceitos, acreditamos que agora é a hora da comunidade enfrentar os desafios, problemas e aplicativos em larga escala existentes de uma maneira muito focada e orientada para objetivos. Um bom exemplo é a computação de alto desempenho. Tradicionalmente, os supercomputadores contam com milhares de unidades de processamento que processam dados. Obviamente, essa abordagem é a mais eficiente se os dados forem majoritariamente independentes.Wright, 2014 ). Além disso, existe uma enorme lacuna entre a velocidade das unidades de processamento e a memória, resultando em gargalos de memória, pois os dados precisam ser constantemente recuperados e armazenados. Qual é a melhor solução para esse desafio? Alguma abordagem de computação não convencional pode se tornar a solução?
Métricas
Para comparar abordagens de computação não convencionais com outras abordagens, é preciso métricas bem definidas. Boas métricas ajudam a acompanhar o progresso e definir o sucesso. E, como em qualquer afirmação ousada, são necessárias evidências ousadas. Embora você possa propor um novo dispositivo que funcione cinco vezes mais rápido que o dispositivo de última geração, pode não ser útil se consumir 20 vezes mais energia. A questão das métricas também deve abordar essas compensações e também os aplicativos potenciais (matadores). Com as métricas escolhidas, como sua abordagem funcionaria nesses aplicativos? Ele pode superar as abordagens existentes em pelo menos um aspecto? E como as métricas são dimensionadas em função do tamanho do sistema? Seu sistema pode funcionar bem em pequena escala, mas atinge limites fundamentais de escala (por exemplo, explosão combinatória) à medida que você aumenta seu tamanho.
Limites fundamentais
Tentar provar se P = NP é provavelmente tão sem esperança quanto tentar fisicamente um hipercomputador ( Davis, 2004 ), um computador que pode calcular funções (como o problema da parada) que uma máquina de Turing clássica não pode. É fundamental estar ciente de possíveis limites fundamentais teóricos e práticos, soltos e rígidos, a fim de eliminar quaisquer projetos de “missão impossível” desde o início. Um artigo recente de Markov (2014) resume os limites fundamentais relevantes para as tecnologias emergentes. Lloyd (2000) introduziu várias ab initiolimites e o “melhor laptop” em seu artigo de 2000. Embora os limites frouxos possam ser bem flexibilizados com a execução de certos truques, os limites apertados não cedem. Por exemplo, a máquina de Turing em aceleração ( Teuscher e Sipper, 2002 ) pode resolver o Problema da Parada em tempo linear na teoria, mas é obviamente, não é possível implementar fisicamente essa máquina, porque isso acabaria por exigir operações infinitamente rápidas, pelo menos se o observador e o computador estivessem no mesmo quadro de referência.
Programação
Muitos substratos não convencionais, como uma sopa de filamentos de DNA, E. coli ou colônias de formigas, oferecem dinâmicas interessantes, mas não está claro como podemos aproveitá-las para uma finalidade útil, ou seja, calcular uma função no sentido de uma máquina de Turing . Crutchfield et al. (2010) descreveram essa questão como uma ponte entre a computação intrínseca e a projetada . A questão mais profunda está relacionada ao controle e programação da dinâmica intrínseca, que levaria à computação projetada (ou útil). Como Stepney afirma em Stepney (2012), “Nossa capacidade de explorar computação não convencional é parcialmente prejudicada pela falta de formalismos de programação correspondentes: precisamos de modelos para criar, compor e raciocinar sobre programas executados nesses substratos”.
Interface
A interface convencional com computadores não convencionais pode ser um desafio e ser um obstáculo. Por exemplo, os sinais de saída dos computadores biomoleculares geralmente dependem da fluorescência. Por outro lado, os sinais de entrada podem ser representados por certas concentrações químicas que precisam ser injetadas no sistema em instantes muito específicos. Escusado será dizer que a interface de um computador não convencional com um computador digital convencional não é trivial. A interface também geralmente adiciona uma sobrecarga significativa, o que pode anular qualquer vantagem possível de uma abordagem não convencional à medida que se move para um nível de sistema mais integrado. Pior ainda, uma parte significativa do esforço computacional geral pode ser realizada na parte da interface. Essa é uma das razões pelas quais a comunidade não deve parar com simples provas de conceito.
Na indústria de semicondutores “[r] a inovação evolutiva está em falta há cerca de 40 anos, pois a indústria se concentrava em avanços incrementais” ( Apte e Scalise, 2009 ). O que realmente - e possivelmente até mesmo desesperadamente - precisamos neste momento é um novo momento de “transistor” ou “aterrissagem na lua” que levaria os computadores à medida que os conhecemos para o próximo nível. A maioria das pessoas concorda que a “próxima grande novidade” não será uma melhoria incremental, mas será algo radicalmente diferente. No entanto, precisamente que molho secreto de dispositivos, arquiteturas e paradigmas de computação nos levará a especulações. Como tomamos a decisão certa na direção certa?
Em primeiro lugar, a comunidade de computação não convencional precisa da disposição das agências de financiamento para continuar investindo em idéias ousadas e radicalmente diferentes. Como Gros (2012) argumentou que “apoiar uma série de projetos de pesquisa pequenos e médios, em vez de alguns grandes, será, como corolário, um uso mais eficiente dos recursos para as agências de fomento à ciência”. Segundo, a comunidade precisa se concentrar nas questões principais e abordar as questões importantes acima com foco e determinação. Com muita freqüência, os projetos de pesquisa são interrompidos após a obtenção de uma prova de princípio; por exemplo, podemos calcular uma função NAND, para que possamos calcular qualquer função. Embora isso seja verdade na teoria, os obstáculos práticos da engenharia geralmente são significativos. Construir uma arquitetura de computação real a partir de simples portas NAND pode revelar-se praticamente inviável. Ou, pode resultar em um sistema que é terrivelmente ineficiente.
Gostaríamos de defender que a comunidade vá além de simples provas de conceito. Para que uma abordagem não convencional seja bem-sucedida, precisamos atravessar o vale da morte entre o financiamento do governo para pesquisa e o suporte da indústria a protótipos e produtos. É mais fácil falar do que fazer, ainda assim, com as respostas às perguntas acima, a missão pode ser mantida focada.
Embora medidas e comparações de desempenho sejam indubitavelmente necessárias para avaliar novas tecnologias, “[as] tecnologias mais profundas são aquelas que desaparecem. Eles se tecem no tecido da vida cotidiana até que sejam indistinguíveis dela ”( Weiser, 1991 ). Quando foi a última vez que você pensou no sistema de freios antibloqueio do seu carro(ABS)? Quem se lembra dos momentos em que os novos motoristas foram instruídos a “acionar os freios” para parar rapidamente e evitar derrapagens ao mesmo tempo? Hoje, dispomos de eletrônicos sofisticados que cuidam exatamente disso, incluindo muitas outras funções em seu carro em que você nunca pensou. A eletrônica ABS é baseada em abordagens não convencionais? Não nos termos de hoje. É eletrônica convencional combinada com algoritmos bem estabelecidos que nem precisam ser particularmente rápidos ou sofisticados. No entanto, esperamos que o sistema seja extremamente confiável.
O ponto que gostaríamos de enfatizar aqui é que o que consideramos não convencional é, em última análise, uma questão de perspectiva. A métrica definitiva para uma tecnologia não convencional considerar o sucesso pode ser simplesmente quando essa tecnologia se tornar convencional.
Já falamos sobre os ciclos tecnológicos acima. As coisas vêm e vão e são reinventadas periodicamente. Aqui está um exemplo recente: “O transistor a vácuo poderia um dia substituir o silício tradicional” ( Han e Meyyappan, 2014 ). A idéia de combinar transistor com tecnologia de tubo de vácuo não é convencional? E isso importa? É uma idéia legal, não importa o quê, que tenha mostrado alguma promessa. Como na maioria das outras novas abordagens, é preciso mostrar que ela pode ser ampliada, o que os autores dizem ser o próximo passo.
Portanto, a computação não convencional pode simplesmente não ser a escolha mais sábia de palavras para uma nova e empolgante tecnologia de computação. Como Apte e Scalise concluem: “o desafio hoje é encontrar fontes de inovação científica disruptiva” ( Apte e Scalise, 2009 ). Se não é convencional ou não, em última análise, não importa. Agora vamos todos sair em busca de novas aventuras na computação!
Declaração de conflito de interesse
O autor declara que a pesquisa foi realizada na ausência de quaisquer relações comerciais ou financeiras que possam ser interpretadas como um potencial conflito de interesses.
Agradecimentos
Financiamento: Este material é baseado no trabalho apoiado pela National Science Foundation sob as doações 1028120 e 1028378 e por um prêmio de Programa de Pesquisa em Semicondutores Interdisciplinares (CSR) G15173 da Semiconductor Research Corporation (SRC). O autor gostaria de agradecer a John Carruthers pelos comentários e feedback perspicazes.
Referências
- Amos, M., Stepney, S., Doursat, R. e Vico, FJ (2012). Trégua: uma ação de coordenação para computação não convencional. Int. J. Unconv. Comput. 8, 333-337.
- Google Scholar
- Apte, P. e Scalise, G. (2009). O forro de prata da recessão. IEEE Spectr. 46, 46-51.
- Google Scholar
- Borkar, S. (2006). “Eletrônica além do CMOS em nanoescala”, em Proceedings of Design Automation Conference , (Nova York: A Associação de Máquinas de Computar), 807-808.
- Google Scholar
- Cerf, VG (2014). Computação não convencional. Comum. ACM 57, 7. doi: 10.1145 / 2656433
-
Texto completo em CrossRef Google Scholar - Crutchfield, JP, Ditto, WL e Sinha, S. (2010). Introdução à questão focal: computação intrínseca e projetada: processamento de informações em sistemas dinâmicos - além da hegemonia digital. Caos 20, 037101. doi: 10.1063 / 1.3492712
-
Resumo Pubmed Texto completo em Pubmed Texto completo em CrossRef Google Scholar - Davis, M. (2004). “O mito da hipercomputação”, em Alan Turing: Vida e Legado de um Grande Pensador , ed. C. Teuscher (Berlim: Springer-Verlag), 195-212.
- Google Scholar
- de Castro, LN (2006). Fundamentos da computação natural: conceitos básicos, algoritmos e aplicativos . Boca Raton, FL: CRC Press.
- Google Scholar
- Fenn, J. (2008). Compreendendo os ciclos de hype do Gartner . Disponível em: http://www.gartner.com/technology/research/methodologies/hype-cycle.jsp
- Google Scholar
- Gros, C. (2012). Empurrando a barreira da complexidade: retornos decrescentes nas ciências. Sistema complexo. 21, 183–192.
- Google Scholar
- Han, J.-W. e Meyyappan, M. (2014). O dispositivo feito de nada. IEEE Spectr. 51, 30–35.
- Google Scholar
- Lloyd, S. (2000). Limites físicos finais à computação. Nature 406, 1047-1054. doi: 10.1038 / 35023282
-
Resumo Pubmed Texto completo em Pubmed Texto completo em CrossRef Google Scholar - Markov, IM (2014). Limites nos limites fundamentais da computação. Nature 512, 147-154. doi: 10.1038 / nature13570
-
Texto completo em CrossRef Google Scholar - Sery, G., Borkar, S. e De, V. (2002). “A vida é CMOS: por que perseguir a vida depois?”, Em Proceedings of the 39th Design Automation Conference , (Nova York: A Association for Computing Machinery), 78-83.
- Google Scholar
- Shapiro, J. (1994). George H. Heilmeier. IEEE Spectr. 31, 56-59. doi: 10.1109 / 6.284787
-
Texto completo em CrossRef Google Scholar - Stepney, S. (2012). Programação de computadores não convencionais: dinâmica, desenvolvimento, auto-referência. Entropy 14, 1939-1952. doi: 10.3390 / e14101939
-
Texto completo em CrossRef Google Scholar - Stepney, S., Braunstein, SL, Clark, JA, Tyrrell, A., Adamatzky, A., Smith, RE, et al. (2005). Jornadas em computação não clássica I: um grande desafio para a pesquisa em computação. Int. J. Parallel Emergent Distrib. Syst. 20, 5-19. doi: 10.1080 / 17445760500033291
-
Texto completo em CrossRef Google Scholar - Teuscher, C. e Sipper, M. (2002). Hipercomputação: hype ou computação? Comum. ACM 45, 23–24. doi: 10.1145 / 545151.545170
-
Texto completo em CrossRef Google Scholar - Weiser, M. (1991). O computador do século XXI. Sci. Sou. 265, 66-75. doi: 10.1038 / scientificamerican0991-94
-
Texto completo em CrossRef Google Scholar - Wright, A. (2014). Big data atende a grande ciência. Comum. ACM 57, 13–15. doi: 10.1145 / 2617660
-
Texto completo em CrossRef Google Scholar
Autor: Christof Teuscher