Analisando o Twitter usando Árvore de Palavras

Nesse artigo vou comentar sobre mais um projeto de processamento de linguagem natural que desenvolvemos aqui na Vetta Labs: um analisador de textos baseado em árvore de palavras.

Comecemos do princípio: uma concordância é um tipo especial de índice, onde se mostram junto de cada palavra algumas palavras que aparecem antes e depois dela. A primeira concordância foi criada no século XII, para a Bíblia em latim, e é mais ou menos desse jeito:

Ocorrências de "alegria" na Bíblia

Ocorrências de "alegria" na Bíblia (clique para aumentar)

Uma concordância era algo incrivelmente útil – basicamente o equivalente ao Google daquela época! – e extremamente caro de se fazer: a primeira da Bíblia em latim exigiu o trabalho de 500 monges e a primeira concordância da Bíblia Hebraica levou 10 anos para ser concluída. Hoje em dia, é claro, ninguém mais dá tanta importância a esse tipo de índice porque é muito mais fácil realizar a busca eletronicamente.

Mas concordâncias ainda têm muita utilidade prática. A Fernanda Viégas, da IBM, fez uma palestra interessantíssima na TEDx São Paulo chamada Revolução Visual, onde ela demonstra uma forma de visualização de textos baseada em concordâncias e numa estrutura de dados bem conhecida na Ciência da Computação, a árvore de sufixos (introduzida nos anos 1970). Chamada WordTree, esta visualização tem como ênfase a exploração interativa de textos curtos (no máximo do tamanho da Bíblia), e está publicamente disponível no site ManyEyes.

Veja um exemplo, criado por mim:

WordTree da letra de "Construção", de Chico Buarque

WordTree da letra de "Construção", de Chico Buarque (clique para aumentar)

A implementação da WordTree no ManyEyes me chamou a atenção, mas não se mostrou útil para mim por uma série de razões:

  • a quantidade máxima de texto suportada é centenas de vezes menor do que a que gostaria de processar
  • a WordTree não permite que voltemos ao trecho original do texto
  • qualquer texto e visualização submetida é obrigatoriamente público, o que impede o processamento de dados confidenciais
  • o uso é sempre interativo, não sendo possível o processamento em lote ou automático
  • não é permitido o uso do ManyEyes em aplicações comerciais
Resolvi, então, criar minha própria implementação de concordância baseada em árvore de sufixos. A idéia não é simplesmente explorar visualmente um texto específico, mas gerar automaticamente árvores de palavras a partir de itens do Twitter.

A motivação é simples: um dos mecanismos mais interessantes do Twitter é o Re-Tweet, ou RT, que é o gesto de alguém repetir o que foi postado por outra pessoa, como forma de manifestação de apoio (ao fazer RT de um item no Twitter você está divulgando aquele item para as pessoas para seus seguidores). Quanto maior o número de RTs mais divulgação um determinado item teve.

O sistema monitora o Twitter em tempo real, buscando itens com as palavras chave determinadas pelo usuário. Todos os dias (ou, por exemplo, a cada 1000 twits encontrados) uma nova árvore é gerada, que ilustra de forma bem interessante o que tem sido discutido a respeito daquele assunto. Veja um exemplo, gerado enquanto escrevia esse artigo a partir de twits a respeito do Campeonato Mineiro (nada contra o time do Atlético!):

Árvore gerada por twits do Cruzeiro

Árvore gerada por twits do Cruzeiro

Como a quantidade de textos processada é enorme – dezenas de milhares de itens por dia! – árvores de palavras geradas de forma ingênua são gigantescas. Para exibir apenas as informações relevantes, utilizamos técnicas de processamento de linguagem natural para podar a árvore.

Por exemplo, podemos exigir que determinados nós sempre contenham verbos, ou apenas sentenças em que a palavra escolhida funcione como sujeito sejam consideradas. Tudo isso, é claro, configurável e acessível através de uma interface web, com tudo a que o usuário tem direito (feeds RSS, interface AJAX, exibição de estatísticas a respeito de como a árvore foi construída, links para os itens originais…).

E como o assunto da vez são as Eleições 2010, vejam alguns exemplos, também produzidos nesse exato momento:

Árvore produzida por menções a Aécio Neves no Twitter

Árvore produzida por menções a Aécio Neves no Twitter

Também podemos gerar árvores reversas, que mostram o que precede determinada palavra, e árvores com maior profundidade, como exemplificado abaixo:

Árvore reversa (Aécio Neves no Twitter)
Árvore reversa (Aécio Neves no Twitter)

O mais interessante (e divertido!) disso tudo é que essa técnica de visualização permite ter uma avaliação instantânea do que “está rolando no Twitter”, em poucos segundos. Uma árvore de palavras condensa informação de milhares de itens e a exibe de forma intuitiva e direta – algo realmente raro num mundo em que a sobrecarga de informação é cada vez maior.

Data Mining, Internet, Linguagem Natural, Redes Sociais, Usabilidade, Visualização Cientifica, Web 2.0 11 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (4 votes, average: 4,75 out of 5)

Web semântica, sem enrolação

Hoje me pediram para explicar o que era a tal web semântica. A pegadinha é que se queria uma resposta “sem frescuras”, “sem enrolação de marketing” e com exemplos concretos. Esse artigo é uma tentativa de abordagem bem informal desse assunto.

A web que a gente conhece é feita para ser acessada por pessoas. A informação é organizada de forma que fique esteticamente agradável, num formato familiar aos usuários. Usabilidade é fundamental, mas cria um problema: o que é fácil de ser entendido por humanos não é compreendido por computadores.

Tome como exemplo as suas lojas preferidas na Internet. Os produtos, preços e condições de pagamento são mostrados de forma a chamar a sua atenção. Cada loja faz isso de uma forma diferente. Se você está comparando preços de uma dúza de lojas você vai ter que fazer uma dúzia de buscas, e manualmente copiar e colar isso numa planilha, para só então “digerir” esses dados.

Alguns sites fazem isso automaticamente, mas mesmo esses formatam os resultados para pessoas; escrever um programa que acompanha o preço de alguns produtos todos os dias acessando um site assim dá bastante trabalho (recentemente dei umas dicas para um amigo que fez isso).

A idéia da web semântica é ter toda essa informação disponível não apenas para pessoas, mas também num formato fácil de ser processado por computadores (imagine acessar os preços de todas as lojas da web como se acessa uma planilha eletrônica ou um banco de dados!).

No início acreditava-se que isso se tornaria realidade quando cada criador de conteúdo na web formatasse seus dados de forma estruturada. O HTML comum, usado com fins puramente visuais, daria lugar a linguagens e tecnologias mais rígidas (XML, RDF, OWL, etc.), e seriam disponibilizandas formas de acesso automatizado aos dados (semantic web services, por exemplo).

Só que o progresso nesse sentido tem sido lento: basicamente dá muito trabalho e ninguém tem muito interesse em fazer isso. Lojas não gostam quando seus preços são comparados com o das outras! :-). Há soluções específicas bastante bem-sucedidas, mas não são tão conhecidas do grande público.

Uma tentativa de atacar o problema por outro lado é usar software que consegue transformar informação formatada para pessoas em informação estruturada, automaticamente ou com ajuda do usuário.

Um exemplo desse último caso é o PiggyBank / Solvent, código livre desenvolvido no MIT.

Logo do Piggy Bank

O Solvent é uma extensão pro Firefox que deixa qualquer usuário médio criar (“quase” só visualmente) um código JavaScript que extrai informação de uma página (um scraper).

Com o Solvent (ou outras ferramentas parecidas) você pode capturar os produtos e preços de uma loja virtual, ou as notas de um jogo num site de reviews, ou endereços de agências na página do seu banco, por exemplo. Ele converte informação organizada visualmente para humanos em informação estruturada acessível por computadores.

O PiggyBank é um banco de dados estruturado para armazenar as informações extraídas pelo Solvent. Assim, se todo mundo contribui com scrapers para diferentes sites, o PiggyBank fica cheio de informação facilmente recuperável.

Ainda que para a web a coisa ainda não dê muito certo, isso numa intranet grande ou com fins específicos pode ser muito útil. Eu investiguei bastante a fundo esse tipo de ferramenta enquanto trabalhava para melhorar a busca e o atendimento aos usuários do portal do condado de Miami-Dade, na Flórida.

A partir do momento que as informações da web estão disponíveis num formato estruturado (num banco de dados, planilha ou arquivo XML, por exemplo), fica fácil pensar em um monte de aplicações interessantes.

Por exemplo, seria possível criar um agente inteligente que monitorasse milhares de lojas detectando variações de preço de produtos em que você está interessado. Poderíamos juntar informação geográfica das lojas com informação dos preços e das opiniões de usuários (cada um desses dados vindo de sites diferentes) e mostrar tudo isso no Google Maps, com gráficos feitos com a Google Visualization API – dando uma idéia de como um produto é aceito em diferentes locais, e como o preço influencia nisso.

Obviamente  a idéia central da web semântica não está restrita à implementação específica de um subconjunto dos aspectos dela que o PiggyBank / Solvent provê, nem a tecnologias específicas tradicionalmente associadas a ela. É muito mais um conceito do que uma implementação ou produto propriamente dito.

Os mashups – “misturas” inteligentes de informações de diferentes fontes para criar uma aplicação web ou site original – tão em moda hoje em dia, são materializações bem concretas do conceito de web semântica, sem necessariamente usar nenhuma das tecnologias tradicionalmente associadas a ela. Eles mostram que quando é possível ter acesso uniforme a diversas fontes de informação o resultado final pode ser surpreendente.

Um exemplo recente: misturando-se informação geográfica com pesquisas no Google de sintomas de gripe é possível criar um detector de epidemias de gripe que avisa com duas semanas de antecedência quando uma epidemia de gripe vai chegar em determinado local!

Internet, Linguagem Natural, Web 2.0 1 Comentário

1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 5,00 out of 5)

I’m a Mac, I’m a PC… I’m Google

Desde 2006 os telespectadores americanos acompanham uma série de anúncios publicitários da Apple, onde PCs e Macs são comparados entre si de forma divertida. Os PCs são tratados como sisudos e sem graça, enquanto os Macs são divertidos e fáceis de usar. Essa série de anúncios ficou conhecida como “I’m a Mac/I’m a PC”, pois cada plataforma é representada por uma pessoa, com estilo e roupas correspondentes à imagem que os criadores da campanha quiseram passar.

Veja abaixo alguns dos comerciais no YouTube:

PC lotado
Macs não travam
Upgrades

Hoje o Erick Schonfeld, do blog TechCrunch, escreveu um artigo interessante sobre se o Google deveria usar os métodos tradicionais de propaganda – rádio, TV e jornais – para melhor estabelecer sua marca. Mas uma frase no último parágrafo do artigo me chamou a atenção:

I’d love to see an ad campaign for Google Docs along the lines of the “I’m a Mac/I’m a PC” Apple ads

Enquanto eu lia, já imaginava uma propaganda semelhante às acima, com o Mac e o PC conversando entre si, mas de repente uma voz onipresente diz “Hello, I’m Google Docs, and I run anywhere”.
Se eu tivesse um pouco mais de habilidade artística, faria um filmezinho assim no Youtube :-)

E você, tem sugestões de uma propaganda para o Google nesses moldes? Escreva aí embaixo nos comentários. Quem sabe não enviamos todas as sugestões para o TechCrunch?

Renato Mangini é arquiteto de software sênior. Foi sócio fundador da Vetta Technologies e da Vetta Labs e recentemente criou uma startup de tecnologia para desenvolver o wapawapa. Sua formação acadêmica inclui um bacharelado em Ciência da Computação e um mestrado inacabado, ambos pela UFMG, e cursa agora um MBA no Ibmec.

Internet, Negócios, Web 2.0 1 Comentário

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Screencasts

Só uma explicação rápida. Algumas pessoas me perguntaram sobre os vídeos de demonstração dos cachorros virtuais, disponibilizados semana passada. Os vídeos foram gerados com o Dream Screen, um produto para criação de screencasts da Dream Broker, uma startup finlandesa. Não sou de fazer propaganda, mas o Labs foi beta tester do Dream Screen, e eu gostei bastante do produto, tanto pela qualidade do vídeo resultante quanto pela falta de dor de cabeça com conversão de formato, uploading e armazenamento online.

Web 2.0 0 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

TechCrunch 50!

Está rolando em San Francisco a TechCrunch 50, uma grande conferência onde startups se apresentam para a imprensa, investidores, empreendedores e outros formadores de opinião do Vale do Silício. É provavelmente o maior evento dedicado ao lançamento de novos produtos, sites e empresas inovadoras do mundo. As empresas selecionadas (52 de um total de mais de 1000 inscrições) têm que manter seus produtos em segredo até a conferência.

Como a conferência já começou, podemos anunciar que um dos produtos lançados foi desenvolvido todinho aqui no Labs, e está em beta atualmente. O StockMood.com é uma ferramenta para auxílio a pequenos investidores na bolsa dos EUA. O sistema usa processamento de linguagem natural e inteligência artificial para determinar o “tom” (positivo ou negativo) de artigos que saem na imprensa sobre uma empresa.

Correlacionando o tom dos artigos com o movimento do preço da ação ao longo do tempo, ele tenta quantificar o “humor” da ação, e gera alertas quando o humor e o tom dos artigos do dia chegam a valores muito altos ou muito baixos. Esses alertas indicam uma possível reversão dos preços. O sistema de classificação do tom de artigos está longe de ser perfeito, mas os usuários podem corrigir os erros do sistema pelo site, gerando alertas melhores e permitindo que o próprio classificador aprenda com os erros.

Brett Markinson presenting StockMood.com

A foto acima (by Andrew Mager) é do Brett, CEO da nova startup, durante a apresentação. A recepção ao StockMood.com foi geralmente bem positiva, como nesse artigo da Fortune. embora o modelo de negócios da empresa ainda esteja sendo refinado. O beta será limitado, por enquanto, a 1000 usuários cadastrados, então se você achou a idéia interessante e não tem medo do inglês, cadastre-se!

E, finalmente, parabéns a toda a equipe do StockMood.com, especialmente ao Fabrício Aguiar e ao Gustavo Gama, que vocês conhecem um pouco de posts aqui no blog.

Data Mining, Inovação, Inteligência Artificial, Internet, Linguagem Natural, Negócios, Web 2.0 10 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Google x Wikipedia

O Google lançou no dia 23 de Julho um concorrente do Wikipedia chamado knol. Diferentemente do Wikipedia, os autores de artigos do knol serão identificados e seus artigos não poderão ser editados por outros. Outros usuários poderão somente comentar, criticar e sugerir alterações (que poderão ou não ser incorporadas pelo autor). Além disso, com o intuito de motivar as contribuições, parte do lucro dos anúncios no site será distribuída para os autores.

O Google não será responsável por editar os artigos e não irá certificar nenhum conteúdo. Será função dos leitores identificar a qualidade dos artigos e dos autores pelos comentários.

Agora vamos ver se a máquina de busca anunciada pelo fundador da Wikipedia Jimmy Wales irá mesmo ser um concorrente forte do Google, ou se o knol irá ganhar o espaço da Wikipedia.

Internet, Web 2.0 0 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

O novo serviço de busca do Yahoo

O Yahoo anunciou semana passada o BOSS, abreviação de Build your Own Search Service, ou construa seu próprio serviço de busca.  O BOSS oferece uma API (e um framework para criação de “mashups”) para qualquer pessoa que queira prover serviços de busca, em seu site ou sobre toda a web indexada pelo Yahoo.  Ao contrário de APIs anteriores do Yahoo e do Google, não há um número máximo de pesquisas, quantidade de resultados ou qualquer outro limite do tipo.  Em princípio, com banda e hardware suficiente, você pode usar esse serviço para competir com o próprio Yahoo no mercado de busca na web.

Qual a motivação por trás do BOSS?  De acordo com o pai da idéia, Vik Singh, é fragmentar o mercado de busca, permitindo que empresas e sites utilizem o conhecimento que eles têm para oferecer resultados melhores e mais relevantes que os disponibilizados pelo Yahoo ou Google.  Como isso aconteceria?  Bom, quando você está em um site qualquer, os servidores do próprio site têm um bocado de informação útil a seu respeito: quais páginas naquele site você visitou recentemente, seu perfil e transações passadas se você é um usuário registrado, e o próprio conteúdo do site como indicador de contexto.  Todos esses fragmentos de informação podem ser usados para guiar uma busca na web, reordenar resultados e sugerir resultados relevantes de dentro do próprio site.

Por exemplo, se estou navegando pelo Mercado Livre para comprar um telefone celular e resolvo buscar o nome do aparelho na web, a princípio o próprio Mercado Livre pode me oferecer resultados melhores que os do Google.  Os servidores do Mercado Livre sabem que estou procurando um celular, provavelmente com intenção de comprá-lo, então podem priorizar resultados com avaliações do aparelho, páginas do fabricante com documentação e material de suporte, e assim por diante.  Os servidores também sabem quais outros aparelhos eu considerei recentemente, e podem priorizar páginas com comparações entre esses modelos. Tudo isso é facilitado pelo BOSS, e pode ser combinado ao suporte existente para busca dentro do próprio Mercado Livre.

O Yahoo  oferece o BOSS gratuitamente.  O que eles ganham com isso?  Eu acho que é uma jogada poderosa em cloud computing, com dois desdobramentos: vendor lock in e o impacto no mercado de busca propriamente dito.

A Amazon e o Google cobram pelos serviços oferecidos, embora o Google App Engine tenha uma cota de processamento e banda iniciais gratuitos.  Mas a arquitetura do Google App Engine é peculiar e, se você desenvolve uma aplicação web nessa arquitetura, existe um forte incentivo para se manter na mesma.  É uma forma de “vendor lock-in” similar à que a Microsoft usa com Windows e Office.  O BOSS faz a mesma coisa, mas em um nível diferente, mais semântico.  Ao utilizar o BOSS, você não usa cloud computing para armazenamento e processamento, mas para fornecimento de informação.  Eles não estão somente simplificando sua vida.  Ao contrário do Google App Engine e dos Amazon Web Services, o BOSS possibilita que você ofereça serviços, funcionalidade e conteúdo baseados em busca na web, algo até então muito caro e arriscado.

E aí vem o segundo aspecto interessante para o Yahoo.  Se o BOSS for fácil de usar e gerar bons resultados (confesso que não uso busca do Yahoo há anos, então não sei avaliar sua qualidade nem da forma mais grosseira), ele pode catalizar aplicações populares de busca na web, tornando o Google menos onipresente nesse mercado.  Como o Yahoo está bem longe da liderança do mercado, essa fragmentação lhe seria vantajosa.  Imagine se sites populares, como Amazon.com, Facebook e outros tivessem bons serviços de busca que tirassem proveito do contexto como mencionei acima.  Isso diminuiria o incentivo das pessoas a usar a busca “comum” existente.  Se isso acontecer, o Google, com sua enorme fatia de mercado, teria muito mais a perder que o Yahoo.

Inovação, Internet, Negócios, Web 2.0 0 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

A Nova Panacéia Universal: o “Dilúvio de Dados”

Recentemente, um artigo na Wired, escrito pelo seu próprio editor, o Chris Anderson, fez uma declaração bombástica: a de que o método científico está obsoleto porque os “algoritmos do Google” podem achar correlação de qualquer coisa com qualquer coisa. Ok, quem ler o artigo vai ver que eu estou supersimplificando e comprimindo tudo em uma frase, mas eu não diria que a versão descomprimida e complicada soa menos bombástica ou mais aceitável. Pelo contrário! :)

Nem bem uma semana passou após a emissão dessa opinião, uh, digamos, polêmica, e vários artigos pipocaram pela Internet dizendo basicamente duas coisas: que o método científico continua muito bem, obrigado, e que o autor provavelmente não tem uma noção conceitual muito clara do que é Ciência. Um exemplo particularmente bem-humorado desse contra-ataque é o artigo do Daily Galaxy. Não vou chover muito no molhado e só vou ressaltar um argumento bem interessante que vi por aí para desconstruir essa alegada “obsolescência do método científico”:

Primeiro, vamos desconsiderar as limitações do Google e outros search engines – sim, apesar de impressionantes, eles são ferramentas de domínio e capacidade limitados, feitas especificamente para produzir resultados de buscas de páginas Web (e outros tipos de documentos online) que satisfaçam a maioria das pessoas. Mas vamos supor que em um futuro não muito distante o Google se torne (como quer o editor da Wired) uma espécie de oráculo que saiba tudo de qualquer coisa e que em teoria substitui a Ciência. Vamos supor que alguém pergunte ao oráculo algo como “quero a cura da gripe” e o Google magicamente, usando só correlação de dados, mostre a fórmula da tal droga que cura gripe. Agora, uma pergunta para o leitor: você tomaria essa droga sabendo que ela é apenas o que algoritmos estatísticos “acham” que deve ser uma solução, sendo que ela nunca foi testada sequer em cobaias? Se a sua resposta é “não”, é um sinal de que você considera o método científico, e toda a parte de validação experimental, necessários sim.

Acho que o artigo irrealisticamente entusiástico da Wired é só um indício de uma manifestação recente do que chamo de “Sindrome da Panacéia Universal”. É uma síndrome recorrente, com inúmeras encarnações ao longo da história da Ciência e da Tecnologia, que basicamente são produzidas toda vez que algum recurso inovador e revolucionário se populariza. Essa síndrome aliás pode se materializar em vários níveis e em vários contextos, muitas vezes bem específicos. Por exemplo, no contexto da pesquisa de IA do início dos Anos 90 aqui no Brasil, redes neurais estavam muito na moda e havia um “hype” de que elas poderiam solucionar todos os problemas da aprendizagem de máquina. Também ao longo dos 90, nos campos de engenharia de software e linguagens de programação, havia um hype em torno da Orientação por Objetos, que também era “vendida” por muitos como a solução para todos os problemas do desenvolvimento, engenharia e arquitetura de software. E assim cada época vai adorando suas “balas de prata” até que as pessoas caem na real. (Ou então surja uma nova moda de bala de prata para substituir a anterior. :)

O hype de panacéia universal que a Wired caiu vítima, porém, além de mais recente é de um nível mais abrangente. Eu o chamo de a Panacéia do Dilúvio de Dados. Porque hoje em dia a capacidade de armazenamento de dados sobe às alturas, armazena-se dados sobre qualquer coisa, os dados são acessíveis de qualquer lugar e, o que talvez seja o ponto crucial, pode-se fazer buscas nesses dados, começa-se a criar no imaginário popular (ou quem sabe seja só no, como diria o Kenji, “imaginário computeiro” :) a noção de que a resposta para todas as perguntas e a solução para todos os problemas está nessa massa gigantesca de dados online, é só saber minerá-los direito; ela teria se tornado o próprio Logos, o Conhecimento Definitivo.

O meu reality check para isso é primeiro reconhecer que massas gigantescas de dados são sim coisas fascinantes e muito úteis – sei muito bem disso, uma boa parte do meu trabalho nos projetos do Vetta Labs com a Biomind envolve a análise de bases de dados biológicas com nossas ferramentas de aprendizagem de máquina. Mas, uma vez feito esse reconhecimento, também tenho de reconhecer que, em última instância, os resultados da nossa mastigação de dados servem é para sugerir ao biólogo o que eles devem investigar (e às vezes como a investigação deve ser feita) com seus experimentos; não serve de forma alguma para eliminar esses experimentos, mas antes para guiá-los, dar prioridades e mesmo levar à geração de novas hipóteses. De fato, esses métodos de mineração de dados não vieram para depor o Método Científico, mas antes para ajudar a Ciência, como uma nova (e extremamente poderosa) ferramenta analítica. E sinto que essa conclusão que tirei da minha experiência profissional e acadêmica com Bioinformática é generalizável sem problemas para todas áreas da ciência e da tecnologia. Assim, parece que as notícias do assassinato do Método Científico pela Panacéia do Dilúvio de Dados foram grandemente exageradas…

Biologia, Data Mining, Internet, Web 2.0 2 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Google e os Mundos Virtuais

Com o lançamento do Lively, o Google se aventura pela mercado de Mundos Virtuais, ou quase isso. Ao contrário do Second Life, o Lively utiliza o conceito de quartos virtuais (virtual rooms), espaços 3D de dimensões reduzidas se comparadas às de uma ilha do SL.

Google Lively

Os usuários Lively podem criar seu próprios quartos contendo, além de mobília e decoração virtuais (com uma biblioteca interessante e que pode receber contribuições de terceiros), fotos e vídeos vindos diretamente do YouTube, óbvio. O interessante do sistema é a capacidade de embutir tais quartos em páginas WEB normais e assim permitir a qualquer um que esteja navegando pela página o acesso a um ambiente 3D, diretamente no browser (IExplorer 7 e Firefox por hora).

Agora é só esperar o Google abrir a API do Lively (como tem feito com suas outras aplicações) para nós aqui do VettaLabs tornarmos a “brincadeira” ainda mais divertida com nossos cachorros virtuais inteligentes ;-).

Mundos Virtuais, Web 2.0 1 Comentário

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Google Friend Connect

Então semana passada o Google anunciou o Google Friend Connect. O que é isso? Uma maneira de adicionar funcionalidades “sociais” ao seu site ou aplicação web sem escrever código. Eles vão disponibilizar um conjunto de widgets que você pode adicionar ao seu site, sem programação nenhuma do seu lado.

Quando você adiciona o seu widget, os usuários de redes sociais podem logar nas redes uma única vez e ter acesso às funcionalidades sociais do seu site, assim como às funcionalidades dos outros sites que se integrarem ao Friend Connect. Eles podem convidar seus amigos nas redes para visitarem o seu site, fazer novos amigos (inclusive de outras redes), navegar pelos perfis públicos dos usuários logados no momento (inclusive de outras redes), adicionar comentários e reviews no seu site, etc.

Dessa forma, você pode tornar seu site mais interativo e atrair visitantes, mas sem gastar esforço com programação. Discussões e comentários podem ser feitos de forma integrada às redes sociais. Você pode criar updates no seu site que são automaticamente divulgados nas redes através dos perfis dos usuários que “assinam” o seu site via Friend Connect.

E esse é só o começo, porque os widgets são compatíveis com o Open Social, a tecnologia do Google para a criação de aplicações sociais portáveis para múltiplas redes. Ou seja, desenvolvedores do mundo todo poderão criar aplicações que você pode usar no seu site via Friend Connect. Talvez haja um novo mercado para desenvolvedores independentes de software: criar aplicações legais usando Open Social para o Friend Connect.

Outro aspecto interessante é a integração de múltiplas redes. Você pode usar o Friend Connect, por exemplo, para permitir que usuários das grandes redes, como o Orkut, participem de redes muito mais especializadas, sem ter que se registrar duas vezes, duplicar listas de amigos, etc.

Esses dois fatores, a facilidade de oferecer conteúdo e funcionalidade diferenciados e a portabilidade do seu “contexto social” podem levar a uma explosão no número de redes sociais especializadas e a uma maior integração entre conteúdo e interação social. A diferença entre redes sociais, de um lado, e fóruns e sites de notícias colaborativos, de outro, tende a sumir, já que o Friend Connect permite que você “leve” seu contexto social das redes para esse tipo de site.

Infelizmente o Friend Connect ainda está em desenvolvimento, e há preocupações com privacidade, também. Mas que a coisa promete, promete.

Web 2.0 1 Comentário

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

« Previous Entries