Introdução à Inteligência Artificial Genérica

Andróide IBMDurante a VIII Semana de Informática na PUC Minas São Gabriel, que ocorreu de 04 a 07 de maio deste ano (2010), eu tive prazer de ministrar uma palestra para os alunos sobre um tema bastante polêmico, atual e que fascina muita gente. Intitulada “Introdução à Inteligência Artificial Genérica”, a apresentação, que durou aproximadamente 1:40h, iniciou com uma breve revisão da origem/história da área Inteligência Artificial (IA) e com uma descrição das diversas ramificações que emergiram dentro da disciplina, desde o seu surgimento. Foram ilustrados alguns projetos que deram o pontapé inicial às sub-áreas de pesquisa (ramificações), como planejamento de ações e tomada de decisão, aprendizado de máquina, além de dar uma visão geral sobre o estado-da-arte da IA Genérica. Um dos principais objetivos da IA Genérica é a criação de sistemas computacionais para a resolução de problemas gerais, que exijam inteligência para serem solucionados. Projetos importantes como OpenCog, OpenNars, HTM, entre outros, foram apresentados ao público, que demonstrou bastante interesse, principalmente com a possibilidade de poder contribuir com os projetos livres e de código aberto, como o OpenCog. Mas eu tinha reservado uma surpresa para eles. Uma densa viagem através das idéias, teorias e previsões do inventor e futurista Ray Kurzweil, sobre a evolução tecnológica.

É complicado falar de Inteligência Artificial Genérica atualmente sem mencionar a Singularidade (tecnológica), que é um assunto para vários posts. Mas, de forma geral, podemos entender a Singularidade (tecnológica) como um momento na história da humanidade onde o progresso tecnológico acontecerá de forma tão acelerada, que será impossível prever o impacto desta evolução no mundo. O resultado será máquinas andando sobre a terra com o objetivo de exterminar a humanidade uma mudança permanente e irreversível na forma com que vivemos.

Kurzweil aponta três vertentes tecnológicas que levarão a humanidade à Singularidade: Genética, Nanotecnologia e Robótica (GNR). A Inteligência Artificial é aplicável a todas elas. Dessa forma, foi possível traçar um paralelo entre IA e cada uma delas, exemplificando com alguns trabalhos.

Exponencial vs Linear

Kurtzweil também fez diversas diversas previsões sobre o futuro da tecnologia, inclusive que a Singularidade ocorrerá por volta de 2044. É importante dizer que tais previsões são fundamentadas em um detalhado estudo, por ele realizado, sobre a evolução tecnológica. Tal estudo permitiu a definição de um modelo comportamental para o processo evolutivo da tecnologia. Diferentemente do que muitos pensam, o modelo é exponencial e não linear. Então, quando algum cientista afirma que somente teremos uma Inteligência Artificial, semelhante às vistas em filmes e livros de ficção científica, daqui a vários séculos, ele está usando um modelo linear para defender seu ponto de vista e não o proposto por Kurzweil. Assim, baseando-se na premissa de que a tecnologia evolui exponencialmente, Kurzweil vêm fazendo previsões desde a década de 1980, sendo que várias já se concretizaram conforme previstas. Por exemplo, a explosão da Internet no início dos anos 90 e a derrota do campeão humano de xadrez para um computador no final da década de 1990 (Kasparov foi derrotado pelo Deep Blue em 1997).

Se tudo ocorrer conforme previsto por Kurzweil, teremos, nas próximas décadas, sistemas computacionais capazes de realizar cópias da nossa mente para um meio digital, computadores emulando o cérebro humano, nano robôs navegando em nossa corrente sanguínea e se comunicando com sistemas computacionais externos para nos dar capacidades sobre-humanas (mais inteligência, mais velocidade, mais resistência, etc.)

Ciborgues já existem! (DARPA)

Cyborgs já existem! (DARPA)

Andróides também (Prof. Ishiguro - Osaka University)

Andróides também (Prof. Ishiguro - Osaka University)

Conforme mencionado anteriormente, foram apresentados ao público alguns projetos de Inteligência Artificial Genérica. Como funcionam, para que servem, suas aplicações, além de outros detalhes. O projeto mais detalhado foi o OpenCog, dado que nós aqui do Labs desenvolvemos diversos módulos que o compõe atualmente. O OpenCog é um framework que tem como objetivo a criação de um sistema computacional pelo menos tão inteligente quanto um humano. Ele reúne uma série de ferramentas para planejamento de ações, raciocínio e tomada de decisão, inferência, aprendizado de máquina, etc. Ele conta também com um módulo para a representação de um agente inteligente que possui um corpo físico e está situado em um ambiente físico qualquer. Alguns vídeos de demonstração do OpenCog em ação podem ser vistos em:

Video 1) Visualização da AtomTable
Video 2) Agente aprendendo
Video 3) Respondendo perguntas
Video 4) Resolução de anáfora

Para finalizar a apresentação, foram lançadas algumas questões acerca de uma provável última criação do homem, a super-inteligência. Esta, pois, seria a última, uma vez que uma super inteligência poderia inventar qualquer coisa e/ou resolver qualquer problema que somente um humano seria capaz de fazê-lo, porém de forma mais eficiente. A criação de uma segunda, terceira,.., enésima geração de super-inteligências ficaria a cargo das super-inteligências, dado que o homem “original” e obsoleto não teria capacidade de realizar tal atividade. Uso o termo “original” para denominar o homem sem modificações, ou seja, sem implantes cibernéticos, sem nano robôs e outros recursos que venham torná-lo sobre-humano. No final das contas, a utilização da tecnologia para acelerar o lento processo evolutivo biológico não é novidade, mas será cada vez mais perceptível nas próximas décadas.

Os slides da apresentação podem ser visualizados no Slideshare.

Inteligência Artificial 10 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 5,00 out of 5)

Extração Inteligente de Palavras-Chave

Aqui na Vetta Labs desenvolvemos algumas tecnologias baseadas no processamento de linguagem natural, como já comentei em outro artigo. Hoje vou falar de uma nova aplicação que produzimos recentemente, que tem duas características bem interessantes: uma é suportar tanto textos em inglês quanto em português (o que é bastante incomum, já que as particularidades de nossa língua nem sempre são compatíveis com as técnicas mais conhecidas); a outra é que os resultados produzidos são muito fáceis de serem utilizados na prática, de forma simples, em por exemplo blogs e portais de conteúdo.

É comum sites associarem aos seus artigos frases ou palavras-chave relacionadas ao conteúdo. Essas palavras-chave podem funcionar como resumos do que é discutido, levar o usuário a outros artigos que tratam dos mesmos assuntos e também ajudar na categorização e indexação dos textos. Normalmente essas frases ou palavras-chave são escolhidas pelo próprio autor, ou então definidas pelos visitantes, de forma colaborativa (o que exige um grande número de visitas e “votos” para evitar resultados de baixa qualidade ou sem sentido).

O problema é que muitas vezes já temos uma grande coleção de textos sem palavras-chave definidas, e escolhê-las manualmente  é uma tarefa extremamente árdua.  Existem algumas ferramentas simples para detecção automática de palavras-chave, mas praticamente todas elas usam uma abordagem ingênua que dificilmente funciona bem: são usados dicionários, tabelas com palavras-chave pré-definidas, e  a aplicação simplesmente verifica se a palavra-chave na lista aparece no artigo. Essa alternativa é inútil se os artigos em questão são sobre assuntos pouco comuns, ou se as palavras-chave que desejamos são termos menos conhecidos.

Esse exatamente era o problema de dois dos nossos clientes: a h+ Magazine, uma revista eletrônica sobre trans-humanismo, singularidade e outras tendências tecnológicas e culturais, e o Ceticismo Aberto, um dos maiores sites do Brasil sobre ceticismo e divulgação científica.

Keywords through cyberspace (Digital Composite)

A solução que desenvolvemos utiliza técnicas de processamento estatístico de linguagem natural e aprendizado de máquina para extrair automaticamente frases e palavras-chave de milhares de artigos desses sites. As palavras-chave encontradas incluem neologismos, expressões, nomes próprios e termos obscuros que jamais apareceriam nos resultados de uma abordagem baseada em listas, e são automaticamente inseridas nos sistemas de gestão de conteúdo dos sites (baseados em WordPress e Drupal), permitindo seu uso imediato.

Nosso sistema inicialmente identifica frases ou palavras-chave candidatas criando sequências de até três ou quatro palavras. Cada candidata então é analisada, extraindo-se características como:

  • frequência no uso geral (palavras extremamente comuns não são importantes)
  • frequência no texto (palavras repetidas no artigo têm peso maior)
  • posição no texto (palavras no início ou no final do texto costumam ser mais representativas)
  • categoria gramatical (substantivos têm mais peso que preposições, por exemplo)
  • função sintática (frases sintaticamente incorretas ou incompletas são rejeitadas)
  • entidades ou lugares representados (o sistema identifica nomes próprios como Albert Einstein, Zumbi dos Palmares, Belo Horizonte ou São Luís do Paraitinga)

Note que combinar todas as essas informações extraídas e decidir se determinada candidata é ou não uma frase ou palavra-chave é uma tarefa complicadíssima. Para resolver esse problema, usamos um método de aprendizado supervisionado: utilizamos um pequeno número de artigos (em torno de 50 ou 100) que já tinham suas palavras-chave definidas manualmente pelos autores como exemplos positivos. Um algoritmo de aprendizado supervisionado analisa as informações acima dos exemplos positivos dados e aprende a identificar as palavras-chave, automaticamente. O interessante é que o modelo obtido é capaz de generalização, ou seja, apesar de ter aprendido “estudando” apenas 100 artigos ele é capaz de aplicar de forma correta as mesmas regras para artigos inéditos.

E os resultados são surpreendentes – às vezes é difícil convencer as pessoas de que as palavras-chave foram escolhidas automaticamente e não por uma pessoa capaz de ler e interpretar cada um dos artigos!

Notas

A nova versão do Ceticismo Aberto, já com as palavras-chave extraídas pelo sistema da Vetta Labs, entrou no ar no domingo 21 de Fevereiro, e a versão em inglês, para a h+ Magazine, deve ser disponibilizada publicamente em breve.

O projeto foi desenvolvido por Fabrício Aguiar (que já fez com a gente outras aplicações interessantes baseadas em linguagem natural), a partir de código escrito por Murilo Queiroz (que também coordenou o desenvolvimento) e diversos projetos de software livre, incluindo o WekaKEAOpenNLP, CoGrooRembrandt e OpenCalais.

Os arquivos de treinamento usados na versão para português foram criados  por Kentaro Mori, do Ceticismo Aberto, e muitas das idéias foram sugeridas inicialmente pelo Dr. Ben Goertzel.

Inteligência Artificial, Linguagem Natural 7 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (2 votes, average: 5,00 out of 5)

Ben Goertzel fala de AGI (Artificial General Intelligence) na Fastforward Radio

A notícia e o mp3 com a discussão no Talk Show estão disponíveis para download em

http://ieet.org/index.php/IEET/more/ffr0809/

O programa tem cerca de 1 hora e meia e conta com a participação de Eliezer Yudkowsky, James Hughes e, claro, Ben Goertzel.

Inteligência Artificial 4 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Google Summer of Code 2009

Aqui no Vetta Labs são desenvolvidos vários projetos da Novamente, e com isso temos bastante contato com o Singularity Institute for Artificial Intelligence (SIAI). Desde o ano passado o SIAI é um participante do Google Summer of Code, um programa que paga bolsas (US$ 4000) para estudantes do mundo todo trabalharem em projetos de código aberto e software livre durante o as férias do verão americano (daí o nome).

Os estudantes são orientados por mentores ligados às  organizações participantes. No GSoC 2008 fui mentor do projeto OpenBiomind-GUI, que desenvolveu uma interface gráfica para um conjunto de ferramentas open source para bioinformática. Outro colega, Lúcio de Souza Coelho, também participou como mentor. Foi uma experiência muito interessante e gratificante.

E agora foram abertas as inscrições para o Google Summer of Code 2009! Estudantes no final da graduação e em pós-graduação podem participar, submetendo propostas baseadas nas idéias sugeridas pela organização, que incluem projetos em inteligência artificial e robótica  (OpenCog), processamento de linguagem natural (Link Grammar e RelEx), bioinformática e outros temas.

As propostas são avaliadas pelos mentores e outros membros do grupo, e as melhores são aceitas no programa. Ano passado houve 70 propostas para 11 vagas. A data limite para submissão de propostas é 3 de Abril.

A página principal do GSoC tem todas as informações necessárias:

http://socghop.appspot.com

A página do SIAI no Google Summer of Code, especificamente, é a seguinte:

http://socghop.appspot.com/org/show/google/gsoc2009/opencog

Biotecnologia, Desenvolvimento, Inteligência Artificial, Linguagem Natural 1 Comentário

1 Star2 Stars3 Stars4 Stars5 Stars (2 votes, average: 5,00 out of 5)

Vetta Labs no SBGames 2008

O Vetta Labs é um dos patrocinadores do SBGames 2008, que acontece esta semana, de segunda a quarta, no campus da PUC-MG do Coração Eucarístico, em Belo Horizonte.

Em particular, uma frase bacana no release oficial do evento

O SBGames 2008 conta com o patrocínio da Microsoft, Sony, Vetta Labs, Google e Globo.com e com o apoio do BNDES – Banco Nacional de Desenvolvimento Econômico e Social e da Fapemig – Fundação de Amparo à Pesquisa do Estado de Minas Gerais.

Muito legal dividir um parágrafo com esses nomes aí. ;-)

Além de ter um stand no evento onde as pessoas poderão ver os vídeos de demonstração do Petaverse, os participantes do evento poderão também assistir a diversas e ótimas palestras, desde a do Dr. Ben Goertzel, da Novamente LLC (amanhã, terça, 16:10) até palestras sobre Storytelling com Ido Iurgel (Universidade do Minho, Portugal), uso de jogos na educação com John Nordlinger (Microsoft Research), entre diversos outros.

A programação detalhada do evento você consegue aqui.

Ah sim, e sobre o petaverse, temos mais um vídeo de demonstração no youtube (abaixo) e em alta resolução na dreambroker. O Fido fica cada dia mais esperto ;-)

Inovação, Inteligência Artificial, Mundos Virtuais 0 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (2 votes, average: 5,00 out of 5)

Editores de jornal artificiais?

O Yahoo está utilizando inteligência artificial para selecionar notícias para sua página principal. Um grupo de notícias é selecionado manualmente à moda antiga: por editores de carne e osso. A partir daí, um sistema desenvolvido internamente decide quais notícias serão realmente exibidas, por quanto tempo, e com que grau de destaque. O sistema monitora, em tempo real, a “click through rate”, ou a fração de usuários que clicam na notícia para ler o texto completo.

Como cada texto completo vem com ads, aumentar a fração de cliques tem um impacto direto no faturamento. Os cientistas dizem que o novos sistema aumentou a “click through rate” em 30%.

Um aspecto interessante é que eles tentaram metodos mais sofisticados, como analisar informação semântica sobre o conteúdo de um artigo e personalizar a pagina para cada usuário, mas esses métodos nao apresentaram o mesmo impacto na “click through rate”. A técnica em uso atualmente, aparentemente baseada em um filtro de Kalman, é simples e tem a vantagem de ser facilmente ajustada em tempo real. Esse tipo de ajuste permite que notícias surpreendentemente populares sejam mantidas em evidência por mais tempo, e tambem que o sistema se recupere rapidamente quando faz uma sugestão ruim.

Nao é um computador que pensa, mas é uma aplicaçãoo muito prática (e, ao que tudo indica, lucrativa) de métodos simples. É sempre bom ver pesquisa com esse tipo de foco pé no chão.

Inovação, Inteligência Artificial, Internet 0 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Robôs Criam Pânico em Wall Street

Nessa segunda-feira, dia 8/9, o preço das ações da United Airlinas despencou de US$12,50 para US$3,00 nas bolsas de valores americanas, em apenas 15 minutos. A negociação das ações foi suspensa temporariamente. Tudo isso por causa de um rumor infundado de que a empresa estaria entrando em processo de concordata. O preço das ações voltou ao normal depois que ficou claro que o rumor era falso.

O que aconteceu? Uma combinação de problemas de “burrice artificial” e, claro, a boa e velha burrice natural. A United Airlines realmente entrou em concordata uma vez, mas isso foi em 2002, e isso foi amplamente noticiado pelos jornais.

Pois bem, essa notícia, de dezembro de 2002, de alguma forma apareceu na lista de notícias mais visitadas do site do Chicago Tribune na noite do dia 6/9. Aparentemente, de acordo com o Wall St. Journal, só uma pessoa visitou a notícia, mas o fez durante um período de tráfego muito baixo (afinal era sábado à noite), durante o qual uma visita era o suficiente para colocar a notícia velha entre as cinco mais populares. Burrice artificial número um.

Alguns minutos depois, o robô do Google News fez sua visita periódica ao site do Chicago Tribune, e viu um link que não estava lá antes. A notícia foi baixada mas, como não tinha data, o Google News assumiu a data do dia, que estava no cabeçalho da página que linkava para a notícia antiga. Já era madrugada do dia 7. A notícia foi parar no Google News, sem nenhuma indicação de sua data original de publicação. Burrice artificial número dois.

Aqui entra a burrice natural. A Bloomberg, além daquele canal de TV a cabo com a pior aparência de todos os tempos, também oferece um serviço de notícias em tempo real (com aparência um pouco melhor que a do canal de TV), que é acompanhado por todo mundo no mercado financeiro americano. Algum analista financeiro imbecil viu a notícia e a passou para a Bloomberg. Burrice natural.

Na manhã de segunda feira, mais ou menos uma hora depois que o mercado tinha aberto, a famigerada notícia foi divulgada pela Bloomberg. Hoje em dia há uma grande quantidade de sistemas que “interpretam” o conteúdo das manchetes da Bloomberg e negociam ações com base nessa interpretação. Tudo automatizado. E tem que ser automatizado, porque o tempo de reação é que permite que esse tipo de operação dê lucro: o sistema tem que processar as manchetes, decidir o que fazer e operar antes que os analistas humanos tenham terminado de ler a notícia e tomado suas decisões. Bom, esses sistemas todos concluíram a mesma coisa, venderam tudo que tinham de ações da United Airlines e mais um pouco, e o preço foi pro brejo.

E aí? Esse último foi burrice artificial? A decisão dos sistemas foi correta, dada a informação disponível. Como os sistemas poderiam saber que a notícia era de 2002? Será que não foi burrice natural a falta de alguma salvaguarda?

Eu não sei responder essas perguntas acima, mas sei que essa história mostra o risco que investidores correm hoje em dia porque computadores movimentam um enorme volume de dinheiro nas bolsas sem supervisão cuidadosa de humanos. E esses computadores não estão preparados para lidar com entradas ruins desse tipo. Claro, a velha máxima ainda vale: inteligência artificial não é páreo para burrice natural…

Inteligência Artificial, Internet 3 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Nossos cãezinhos virtuais na Virtual Worlds Expo 2008

Já que estamos falando de conferências, semana passada rolou a Virtual Worlds Expo em Los Angeles. Mais de 1300 visitantes e expositores, e a Novamente estava lá, com um stand, mostrando os cãezinhos virtuais que estamos desenvolvendo por aqui.

Nós gravamos alguns vídeos de demonstração dos cachorros. Quatro vídeos estão disponíveis para quem quiser ver:

Desculpem as animações e arte ainda meio toscas, mas até agora o foco do trabalho tem sido mesmo na inteligência dos bichinhos. Nos próximos meses vamos trabalhar também na robustez do sistema e da interface, e vamos postando mais vídeos quando tivermos novidades interessantes!

Inovação, Inteligência Artificial, Mundos Virtuais 5 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 5,00 out of 5)

TechCrunch 50!

Está rolando em San Francisco a TechCrunch 50, uma grande conferência onde startups se apresentam para a imprensa, investidores, empreendedores e outros formadores de opinião do Vale do Silício. É provavelmente o maior evento dedicado ao lançamento de novos produtos, sites e empresas inovadoras do mundo. As empresas selecionadas (52 de um total de mais de 1000 inscrições) têm que manter seus produtos em segredo até a conferência.

Como a conferência já começou, podemos anunciar que um dos produtos lançados foi desenvolvido todinho aqui no Labs, e está em beta atualmente. O StockMood.com é uma ferramenta para auxílio a pequenos investidores na bolsa dos EUA. O sistema usa processamento de linguagem natural e inteligência artificial para determinar o “tom” (positivo ou negativo) de artigos que saem na imprensa sobre uma empresa.

Correlacionando o tom dos artigos com o movimento do preço da ação ao longo do tempo, ele tenta quantificar o “humor” da ação, e gera alertas quando o humor e o tom dos artigos do dia chegam a valores muito altos ou muito baixos. Esses alertas indicam uma possível reversão dos preços. O sistema de classificação do tom de artigos está longe de ser perfeito, mas os usuários podem corrigir os erros do sistema pelo site, gerando alertas melhores e permitindo que o próprio classificador aprenda com os erros.

Brett Markinson presenting StockMood.com

A foto acima (by Andrew Mager) é do Brett, CEO da nova startup, durante a apresentação. A recepção ao StockMood.com foi geralmente bem positiva, como nesse artigo da Fortune. embora o modelo de negócios da empresa ainda esteja sendo refinado. O beta será limitado, por enquanto, a 1000 usuários cadastrados, então se você achou a idéia interessante e não tem medo do inglês, cadastre-se!

E, finalmente, parabéns a toda a equipe do StockMood.com, especialmente ao Fabrício Aguiar e ao Gustavo Gama, que vocês conhecem um pouco de posts aqui no blog.

Data Mining, Inovação, Inteligência Artificial, Internet, Linguagem Natural, Negócios, Web 2.0 10 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

OpenCog: Inteligência Artificial livre

Há alguns meses estamos trabalhando em um conjunto de projetos bem interessante aqui no Labs. Normalmente, eu não anuncio projetos em desenvolvimento no blog a não ser que os julgue de interesse de boa parte dos leitores, como foi o caso dos cachorros virtuais. Bom, esse projeto está chegando ao ponto em que podemos (e queremos) recrutar colaboradores externos, e envolve diversas tecnologias que já discutimos por aqui.

O OpenCog é um conjunto de projetos de software livre, relacionados a inteligência artificial. É patrocinado pela Novamente (nosso parceiro nos EUA para projetos de IA) e pelo SIAI (Singularity Institute for Artificial Intelligence), com apoio de outras empresas, entre elas o Vetta Labs (onde hoje duas pessoas se dedicam ao projeto) e o Google (patrocinando estudantes via Google Summer of Code). Estamos empacotando diversas tecnologias que desenvolvemos ao longo dos últimos sete anos, e abrindo seu código para a comunidade. Tomamos essa decisão porque acreditamos que os projetos que fazem parte do OpenCog estão se aproximando de um nível de maturidade em que podem ser muito úteis para pesquisadoras em IA e áreas correlatas, e atrair uma comunidade ao redor dos mesmos nos permitirá continuar seu desenvolvimento de forma mais rápida que vínhamos conseguindo dentro da Novamente e do Labs, onde o trabalho de pesquisa sempre tem que competir por recursos com objetivos mais focados em necessidades imediatas dos clientes que pagam as contas.

O OpenCog é composto de um framework que oferece uma fundação para o desenvolvimento de diversos métodos de IA, em uma abordagem de sistemas multiagentes, que trabalham sobre uma base de conhecimento comum. Além do framework, o programa inicial inclui projetos de processamento de linguagem natural (inclusive as tecnologias mencionadas no excelente post introdutório do Murilo), raciocínio probabilístico e computação evolutiva. Combinando esses projetos é possível construir sistemas para uma enorme variedade de objetivos.

Um desses sistemas exemplo será a versão software livre dos
nossos cachorros virtuais, que estamos criando sob patrocínio da RealeXtend e estará disponível em outubro.

Fomos agraciados esse ano também com 11 projetos patrocinados pelo Google Summer of Code. Nada mal para um programa recém-lançado. É o mesmo número de projetos aprovados para a Debian, e mais que muita gente famosa obteve: Wikimedia Foundation, One Laptop Per Child, GCC e outros. O leitor interessado pode conferir os projetos aqui. Quando esses projetos forem concluídos devemos postar mais detalhes por aqui.

Recentemente nós completamos a documentação de boa parte dos planos de longo prazo para o OpenCog, na forma de um “wikibook“. Existem também um canal de IRC, listas de discussão, blogs e uma rede social dedicados ao OpenCog. A partir de setembro, teremos discussões semanais sobre os planos e projetos do OpenCog no IRC. Com tudo isso, espero que leitores com formação técnica e interesse por inteligência artificial se sintam encorajados a se juntar ao time OpenCog. Serão muito bem vindos.

Inteligência Artificial 2 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 1,00 out of 5)

« Previous Entries