O novo serviço de busca do Yahoo

O Yahoo anunciou semana passada o BOSS, abreviação de Build your Own Search Service, ou construa seu próprio serviço de busca.  O BOSS oferece uma API (e um framework para criação de “mashups”) para qualquer pessoa que queira prover serviços de busca, em seu site ou sobre toda a web indexada pelo Yahoo.  Ao contrário de APIs anteriores do Yahoo e do Google, não há um número máximo de pesquisas, quantidade de resultados ou qualquer outro limite do tipo.  Em princípio, com banda e hardware suficiente, você pode usar esse serviço para competir com o próprio Yahoo no mercado de busca na web.

Qual a motivação por trás do BOSS?  De acordo com o pai da idéia, Vik Singh, é fragmentar o mercado de busca, permitindo que empresas e sites utilizem o conhecimento que eles têm para oferecer resultados melhores e mais relevantes que os disponibilizados pelo Yahoo ou Google.  Como isso aconteceria?  Bom, quando você está em um site qualquer, os servidores do próprio site têm um bocado de informação útil a seu respeito: quais páginas naquele site você visitou recentemente, seu perfil e transações passadas se você é um usuário registrado, e o próprio conteúdo do site como indicador de contexto.  Todos esses fragmentos de informação podem ser usados para guiar uma busca na web, reordenar resultados e sugerir resultados relevantes de dentro do próprio site.

Por exemplo, se estou navegando pelo Mercado Livre para comprar um telefone celular e resolvo buscar o nome do aparelho na web, a princípio o próprio Mercado Livre pode me oferecer resultados melhores que os do Google.  Os servidores do Mercado Livre sabem que estou procurando um celular, provavelmente com intenção de comprá-lo, então podem priorizar resultados com avaliações do aparelho, páginas do fabricante com documentação e material de suporte, e assim por diante.  Os servidores também sabem quais outros aparelhos eu considerei recentemente, e podem priorizar páginas com comparações entre esses modelos. Tudo isso é facilitado pelo BOSS, e pode ser combinado ao suporte existente para busca dentro do próprio Mercado Livre.

O Yahoo  oferece o BOSS gratuitamente.  O que eles ganham com isso?  Eu acho que é uma jogada poderosa em cloud computing, com dois desdobramentos: vendor lock in e o impacto no mercado de busca propriamente dito.

A Amazon e o Google cobram pelos serviços oferecidos, embora o Google App Engine tenha uma cota de processamento e banda iniciais gratuitos.  Mas a arquitetura do Google App Engine é peculiar e, se você desenvolve uma aplicação web nessa arquitetura, existe um forte incentivo para se manter na mesma.  É uma forma de “vendor lock-in” similar à que a Microsoft usa com Windows e Office.  O BOSS faz a mesma coisa, mas em um nível diferente, mais semântico.  Ao utilizar o BOSS, você não usa cloud computing para armazenamento e processamento, mas para fornecimento de informação.  Eles não estão somente simplificando sua vida.  Ao contrário do Google App Engine e dos Amazon Web Services, o BOSS possibilita que você ofereça serviços, funcionalidade e conteúdo baseados em busca na web, algo até então muito caro e arriscado.

E aí vem o segundo aspecto interessante para o Yahoo.  Se o BOSS for fácil de usar e gerar bons resultados (confesso que não uso busca do Yahoo há anos, então não sei avaliar sua qualidade nem da forma mais grosseira), ele pode catalizar aplicações populares de busca na web, tornando o Google menos onipresente nesse mercado.  Como o Yahoo está bem longe da liderança do mercado, essa fragmentação lhe seria vantajosa.  Imagine se sites populares, como Amazon.com, Facebook e outros tivessem bons serviços de busca que tirassem proveito do contexto como mencionei acima.  Isso diminuiria o incentivo das pessoas a usar a busca “comum” existente.  Se isso acontecer, o Google, com sua enorme fatia de mercado, teria muito mais a perder que o Yahoo.

Inovação, Internet, Negócios, Web 2.0 0 Comentários

1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

Como criar uma startup de tecnologia inovadora?

Quando eu estava terminando minha graduação (sem datas, OK? ;-)) havia muitos amigos meus com excelentes idéias para produtos inovadores que só precisavam de um empurrãozinho para decolarem e se tornarem um grande sucesso. Pelo menos isso é o que pensávamos à época. Na verdade criar um produto de sucesso a partir de uma idéia brilhante exige “um pouco mais” que um simples empurrãozinho.

O empurrão inicial é a parte fácil, na verdade. Com ele você resolve metade do problema que é transformar sua idéia brilhante em um produto. A outra metade do problema consiste em transformar o produto em um produto de sucesso. Essa é a parte difícil. Mas vamos por partes. Eu quero discutir cada um dos pontos em posts separados, para o texto não ficar muito grande.

Felizmente a cultura tanto do governo quanto do empresariado brasileiro mudou muito nos últimos anos. Hoje há inúmeras maneiras de se conseguir dinheiro do governo e do setor privado para o desenvolvimento de projetos de Pesquisa e Desenvolvimento (P&D). Se você tem uma idéia inovadora e precisa de dinheiro para transformar essa idéia em um produto (nem que seja apenas para se pagar enquanto você gasta seu tempo em seu projeto ao invés de procurar um emprego), a receita é, na verdade, muito simples.

  1. Certifique-se que sua idéia é realmente uma inovação. Parece ridículo mas o fato é que a maioria das pessoas têm uma idéia totalmente errada sobre o que é inovação. inovação não é uma novidade científica com cara de produto. Para se tornar uma inovação, a novidade tem de criar ou transformar um produto para o qual há demanda de mercado. Não existe inovação sem mercado. Um produto só é inovador se ele tem potencial para modificar o mercado em que está inserido. Desta forma um software capaz de resolver o problema do caixeiro viajante em tempo polinomial não seria uma inovação, mesmo sendo uma tremenda novidade científica.
  2. Para conseguir dinheiro do governo ou do setor privado, você precisará provar não apenas a viabilidade técnica da sua idéia mas também (e até mais importante) a sua viabilidade comercial. Minha sugestão é que você gaste um tempo escrevendo um relatório para você mesmo sobre sua idéia. Isso ajuda a pensar sistematicamente em todos os pontos e ainda te dá a base do que você vai precisar para entrar com um pedido de verba em um edital público ou para elaborar um plano de negócio para um investidor capitalista.
  3. Se após concluir o passo anterior você ainda acredita que seu produto é uma inovação e quer buscar dinheiro para financiar seu desenvolvimento, você precisa decidir de onde você vai buscar dinheiro. Há 3 opções mais comuns: (1) Contratar empréstimo junto ao BNDES, FINEP ou outro órgão de fomento (você vai precisar devolver o dinheiro em algum momento); (2) Levantar investimento do setor privado junto a fundos de “capital semente” ou investidores pessoa física e (3) Entrar em editais públicos de entidades de fomento a pesquisa e inovação como CNPq, FINEP e FAPEMIG.

Quanto ao relatório, você tem de ser capaz de descrever sua idéia em 4 parágrafos. Cada um respondendo a cada uma das seguintes perguntas: (1) “O quê é o seu produto?” (2) “Para quê ele serve?” (3) “Por quê o mercado precisa dele?” (4) “Como você vai conseguir implementá-lo?”. Em seguida você precisa explicitar a forma como o mercado será afetado por seu produto: quais são seus possíveis clientes, quais são seus potenciais concorrentes (diretos e indiretos), como seus concorrentes vão responder ao lançamento do seu produto e qual é sua vantagem competitiva para enfrentá-los. Na minha opinião, ter pensado em todas essas questões é o mínimo para você ao menos pleitear recursos em um edital público ou de um investidor capitalista.

    O BNDES tem uma série de linhas de empréstimos com juros subsidiados pelo governo apropriados para a criação de novos produtos. É relativamente fácil conseguir um empréstimo desses mas há o risco do produto acabar sendo um fiasco e você terminar o processo com uma bela dívida. A FINEP tem um programa de financiamento a juro zero (http://www.jurozero.finep.gov.br/jurozero_prod), bem mais interessante porque eles cobram apenas a correção monetária do valor emprestado mas mesmo assim o risco do endividamento em caso de fracasso continua. Para fugir desse risco (ou transferí-lo para outra pessoa ;-) você pode buscar um sócio capitalista para seu novo negócio ou dinheiro público através de editais.

    Os fundos de capital semente estão se tornando cada vez mais comuns. A grande vantagem de ir por esse caminho, na minha opinião é que o dinheiro vem acompanhado de duas coisas muito importantes para o sucesso do seu produto (que eu espero discutir em maiores detalhes no próximo post): (1) consultoria em gestão empresarial feita pelos próprios investidores, que em geral são empresários experimentados que têm todo o interesse em ver seu produto virar um sucesso dado que eles serão seus sócios e (2) uma lista de contatos a que você dificilmente teria acesso se trabalhasse sozinho. O principal ponto negativo é óbvio: sua participação nos lucros fica diluída. A pergunta neste caso passa a ser se sua expectativa para o crescimento do “tamanho do bolo” compensa ou não a “fatia menor” do bolo que você terá no final das contas.

    Quanto aos editais, esses estão também cada vez mais populares e mais pródigos. A FINEP, por exemplo, tem um edital de subvenção econômica que financia projetos da ordem de 1 a 3 milhões de reais. CNPq e FAPEMIG também têm uma série de editais interessantes para projetos menores. A vantagem dessas agências é que elas publicam vários editais diferentes ao longo do ano de forma que se você for persistente e tiver de fato um bom projeto em mãos as chances de conseguir algum dinheiro é muito grande. Note que você não precisa estar associado a nenhuma instituição de ensino ou pesquisa para participar da maioria desses editais. De fato, uma boa parte desses é direcionada exatamente para pequenas empresas ou pesquisadores individuais.

    Continuo a discussão no próximo post.

    Inovação 7 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    Interfaces telepáticas: quando o Mundo do Amanhã chega hoje mesmo

    Recentemente, surgiu aqui no Labs um anteprojeto de um projeto para talvez, quem sabe, trabalharmos com a identificação automática de fases do sono em “polissonografias”, que são dados neurofisiológicos e cardio-respiratórios coletados de pessoas dormindo. A parte neurofisiológica da coisa serviu de inspiração para eu escrever este artigo acerca das “interfaces telepáticas”, como as chamo. Alguns diriam que “interfaces neurais” talvez seja um termo melhor, mas gosto das imagens de pulp scifi que “telepáticas” evoca. :)

    Aliás, o tema de interfaces capazes de ler diretamente a mente do usuário é recorrente na ficção científica. A mais antiga referência _scifi_ sobre interfaces telepáticas de que me lembro está no clássico inesquecível O Planeta Proibido. Numa das cenas desse filme de 1956, um dos personagens usa um aparelho que é capaz de ler e interpretar sua mente, inclusive mostrando as imagens em que ele está pensando. No filme, essa tecnologia é alienígena e apresentada como algo centenas de milhares de anos à frente da ciência humana – o que é bastante curioso, considerando-se que o filme se passa séculos no futuro, em uma época onde os humanos viajam pelo espaço em discos voadores antigravitacionais e cruzam anos-luz em tempos razoáveis passando pelo “hiperespaço”.

    Ou seja, esse parece ser mais um dos casos muito freqüentes em que a ficção científica acerta acerca de uma previsão sobre o futuro, mas erra feio a ordem do que virará realidade primeiro. Alguns experimentos com resultados inesperados e algumas teorias exóticas até dão alguma esperança de que um dia teremos antigravidade de disco voador ou saltos hiperespaciais como no filme, mas na melhor das hipóteses isso está num futuro imprevisivelmente distante. Já as interfaces telepáticas estão bem próximas. Mais precisamente, elas já estão aqui!

    Lembro de pesquisas sobre leitura e interpretação de sinais cerebrais desde os anos 90. Inicialmente, essas pesquisas visavam ajudar pessoas com deficiências físicas, possibilitando a sinais de seus cérebros “contornar” paralisias e outras condições. A pesquisa de anos atrás sobre a movimentação do ponteiro de um mouse usando a mente é emblemática dessa era. Porém, como era de se esperar, essas pesquisas começam aos poucos a ser aplicadas ao mercado muito mais vasto de consumidores em geral…

    Assim, há alguns meses surgiu a demonstração de uma interface de “subvocalização” para celulares, que capta os impulsos nervosos que o cérebro envia para a garganta e interpreta as palavras sem que a pessoa tenha de efetivamente verbalizá-las – ideal para ter conversas telefônicas privadas mesmo em ambientes cheios de gente. Também apareceu recentemente, e já está disponível comercialmente, um controle telepático para videogames.

    Essas aplicações envolvem análise de sinais eletroencefalográficos ou atividade de conjuntos de nervos superficiais específicos – o que certamente já rende um bom número de aplicações divertidas, como exemplificado. Porém, esse meio de aquisição de certa forma capta apenas comandos que o cérebro emite “propositalmente”. Mas a verdadeira fronteira final das interfaces telepáticas, que vai além da captação de comandos diretos do cérebro, envolve a observação direta da atividade cerebral, que potencialmente poderia levar à possibilidade de saber o que uma pessoa está realmente pensando. Uma pesquisa divulgada poucas semanas atrás por exemplo descobriu que as mesmas áreas cerebrais tendem a se ativar quando pessoas diferentes estão pensando na mesma palavra, um princípio que se bem desenvolvido poderia levar a um “leitor universal de pensamentos”. Outra aplicação relativamente recente é o detetor de mentiras com 90% de acerto. Esta última, a propósito, cai no que muitos vêem como o “lado negro” das tecnologias de telepatia artificial, já que levanta uma série de questões éticas e legais.

    É claro que, ao contrário do que acontece com as interfaces “eletroencefalográficas”, que no fim das contas usam simples eletrodos, essas aplicações bem mais ousadas observam a atividade cerebral por fMRI (do Inglês para Imagem por Ressonância Magnética Funcional), ou seja, usam máquinas enormes e caras, tornando difícil imaginar uma popularização desses métodos. Porém, avanços também recentes em magnetômetros atômicos acenam com a possibilidade de máquinas de fMRI portáteis e baratas em um futuro não muito distante. Mais espantosamente, magnetômetros atômicos poderiam em tese ser sensíveis o suficiente para monitorar o magnetismo até de neurônios individuais, podendo registrar a atividade cerebral com um nível de detalhe impensável hoje em dia. Talvez, quem sabe, até o suficiente para alcançar o “upload” tão almejado pelo movimento Trans-Humanista. Mas isso já é outra viagem, que talvez um dia eu tenha coragem de encarar em um artigo futuro. :)

    Ciências cognitivas, Inovação, Memória, Usabilidade 0 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    Miniaturizando o Capital de Risco

    Há algum tempo que essa história de “Web 2.0″ tem levado a um renascimento das startups web. Há até quem diga que estamos vivendo uma nova bolha especulativa, repetição daquela dos anos 90. Bobagem. O volume de dinheiro envolvido nessa nova onda de criação de startups é uma fração do volume de 10 anos atrás e ainda não tem ninguém lançando ações em bolsa antes de conquistar o primeiro cliente.

    A verdade é que está cada vez mais barato criar uma startup, especialmente se ela for voltada para a web. Todo o software necessário é gratuito. Hospedagem e banda são muito mais baratas que há 10 anos atrás, e com serviços de cloud computing como os Amazon Web Services e o Google App Engine, ninguém precisa mais construir um data center enorme e caríssimo. Você escala na exata medida da sua necessidade e, assume-se, do seu bolso. O custo para levar sua grande idéia que vai revolucionar o mundo para o mercado nunca foi tão baixo. Se você além de ter idéias revolucionárias souber programar, o custo principal é o seu tempo.

    Isso é um enorme problema para os venture capitalists, que administram fundos de capital de risco, porque as startups precisam de muito menos investimento que antes. À primeira vista isso pode parecer uma vantagem para os financiadores, mas não é. VCs não escalam “para baixo” facilmente. Eles têm fundos enormes para investir, e uma capacidade limitada de aprovar e monitorar investimentos. Então, para um VC típico, simplesmente não faz sentido investir, digamos, R$100.000,00 em 100 empresas ao invés de investir R$10.000.000,00 em uma única empresa.

    VCs continuam operando um um regime de poucos negócios com um montante alto por negócio, mas a indústria de TI não se encaixa mais tão bem nesse modelo. Isso é especialmente crítico no caso de web, que sempre foi onde a maioria dos investimentos e grandes sucessos ocorrem. Alguns fundos simplesmente mudaram de indústria, e estão agora investindo em coisas mais futuristas e que ainda exigem muito dinheiro de pesquisa e desenvolvimento, como nanotecnologia e energia renovável.

    Mas algumas pessoas viram nisso uma oportunidade. A Y Combinator, fundada pelo pioneiro de web applications Paul Graham e amigos, é uma firma de investimento bem peculiar. Eles só investem em empresas nascentes (o chamado capital semente). Os investimentos seguem sempre um template. Ao contrário da maioria dos VCs, você não precisa conhecer um amigo do VC para receber investimento. Eles fazem seleções abertas duas vezes por ano e só investem nos melhores projetos submetidos nessas seleções. Os contemplados recebem o suficiente para viver por três meses. E os felizardos são obrigados a se mudarem para a mesma cidade onde os investidores estão (Cambridge, MA no verão Vale do Silício no inverno) durante esses três meses.

    A idéia é que a Y Combinator oferece mais que o dinheiro (que não é grande coisa, mas por outro lado não custa muito em termos de participação acionária). Eles oferecem experiência (o Paul Graham vendeu a ViaWeb, sua startup, pro Yahoo por US$50 milhões anos antes da bolha estourar), contatos, séries de palestras com empreendedores famosos, e um dia de demo em que todo mundo apresenta suas idéias para outros investidores que podem, então, financiar a vida das novas empresas depois dos três meses.

    Esse modelo diferente, embora novo, já levou a vários casos de sucesso. A Reddit foi adquirida pela Condé Nast, dona da Wired. A Auctomatic foi adquirida por US$5 milhões menos de um ano após seu lançamento. A Zenter foi comprada pelo Google há mais ou menos um ano. A estimativa dos sócios da Y Combinator é que as startups que eles financiam têm uma taxa de sucesso de 50%, o que é impressionante. O típico na indústria de capital de risco é 20%, no máximo 30% para os melhores fundos.

    A visibilidade e os resultados obtidos pela Y Combinator inspiraram diversos grupos a criar firmas nos seus moldes na Europa, Canadá e outras partes dos Estados Unidos. São os Y Imitators ;-). Até agora, nenhum chegou a lugar algum. Eu acho difícil reproduzir o que a Y Combinator tem, e agora eles estão criando uma massa crítica de empresas investidas que estão amadurecendo e formando suas redes de contatos, ex-fundadores ricos que podem investir nas próximas gerações de startups, e experiência em como determinar, o mais cedo possível, quais projetos vão vingar.

    Uma forma ainda mais peculiar de investimento é a da Prototype Invest. Eles não te dão dinheiro, dão software. Se você se empolgou com a possibilidade de criar uma startup revolucionária sem precisar levantar rios de dinheiro, mas não sabe nada de tecnologia para transformar sua idéia em produto, eles fazem isso pra você em troca de participação acionária. Aí nem o custo de desenvolvimento você tem. Não conheço os caras e não tenho a menor idéia da capacidade (ou seriedade) deles. Mas se funcionar é um redutor de barreira de entrada interessante.

    Inovação 0 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    E o anti-iPhone?

    E a Apple anunciou o iPhone 3G, baixou o preço de compra (mas a AT&T, que tem exclusividade nos EUA, aumento o preço dos planos, então no balanço ficou mais caro) e diz que fechou com parceiros em 70 países. A Claro vai vender o iPhone 3G no Brasil até o fim do ano. Ainda não se sabe quanto vai custar, se vem com fidelização obrigatória até a terceira geração e outros detalhes. Mas os viciados em gadgets estão em polvorosa. E tem muita gente de olho nas possibilidades de desenvolver software para o iPhone. Não é à toa. É um aparelho com potencial revolucionário, e já tem até fundo de capital de risco dedicado exclusivamente a financiar empresas que desenvolvam para o iPhone. O nome? iFund, claro…

    Há quem diga que até o fim do ano que vem a Apple deve vender 15 milhões de iPhones no mundo todo. Não é pouco, mas é menos de 1.5% do número de telefones celulares vendidos por ano no mundo. Em 2007, foram vendidos 1.15 bilhões de telefones. Pode ser revolucionário com 1.5% de market share? Claro que pode, afinal é um produto high end e que atrai early adopters de tecnologia.

    Mas esses números mostram uma outra possibilidade. De acordo com a venerável The Economist, ainda esse ano teremos mais de 3.3 bilhões de usuários de telefonia celular no mundo. Ou seja, mais da metade da população do mundo terá um celular. A expectativa da Portio, uma empresa britânica especializada em pesquisa de mercado celular e wireless, é que a penetração chegue a 75% da população mundial até 2011. Sabe aquela história que até servente de pedreiro tem celular hoje em dia? Pois é, daqui a pouco os serventes de pedreiro da África também vão ter.

    Claro que a imensa maioria desses usuários está na chamada “base da pirâmide”. Gente pobre, pobre mesmo, com o aparelho mais barato possível e plano pré-pago. A inclusão dessa numerosíssima base da pirâmide no mercado de consumo é um dos grandes desafios de estratégia corporativa e de marketing desse começo de século, e os celulares mostram algumas idéias interessantes de como isso pode acontecer.

    Um exemplo que eu adoro é o M-PESA, desenvolvido pela Vodafone e pela Safaricom, uma operadora no Kênia. É um sistema simples de mobile banking, no qual você transfere dinheiro via SMS. Sistemas de pagamento via celular como o Oi Paggo estão se popularizando no Brasil, e o Banco do Brasil já tem uma iniciativa de mobile banking. Mas o potencial transformador do M-PESA é que ele funciona com quem não tem conta no banco. Com quem é pobre e excluído demais pra isso.

    Uma combinação óbvia de mobile banking e base da pirâmide é usar mobile banking para microcrédito. Reduz burocracia, permite uma dispersão maior dos fundos, e tem um mecanismo interessante de incentivo ao pagamento — pode-se deduzir uma fração de cada recarga do plano pré-pago feita pelo devedor. Se ele não pagar o empréstimo, o celular é bloqueado.

    Essa é só uma possibilidade. Eu acho que, embora o iPhone seja um produto interessante e com grande potencial para inovação, o pessoal que pensa em criar startups devia olhar também pra base da pirâmide. É um mercado grande demais e, finalmente, os estrategistas corporativos estão inventando maneiras para deixar de ignorá-lo.

    Desenvolvimento, Inovação, Mobile 5 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    Nano e Atom: pouco velozes mas ainda assim furiosos

    Antigamente era fácil decidir qual era o melhor processador para o seu computador: o melhor era sempre o mais rápido, e para saber isso bastava ver a velocidade do clock (relógio). É claro que um Pentium 100 MHz era mais lento que um Pentium 200 MHz, e ninguém contestava isso.

    Na verdade a questão é muitíssimo mais complexa, já que a arquitetura de um processador é muito mais importante para definir seu poder de processamento do que o a freqüência de clock. Ao longo dos anos, técnicas de projeto que nos anos 1970 eram exclusivas de supercomputadores foram incorporadas aos processadores domésticos, tais como uso de pipeline longos, execução fora de ordem e especulativa. São mudanças na arquitetura que fazem com que um processador moderno como um Core 2 Duo, rodando a 1.8 GHz, seja mais rápido que um Pentium IV da geração anterior, com clock de mais de 3 GHz.

    Recentemente uma outro critério apareceu para deixar tudo ainda mais complicado: o consumo de energia. Não adianta ter um notebook rapidíssimo se a bateria dele dura apenas uma hora. E o sucesso dos subnotebooks (ou “netbooks” como preferem alguns, notebooks com telas pequenas – 10″ ou menos – e muitas vezes sem disco rígido) como o Apple Macbook Air, Asus EEE PC e o Mobo (da brasileira Positivo) fazem com que o dilema poder de processamento x consumo de energia seja ainda mais importante.

    As duas estrelas recém-lançadas nessa cena são os novos processadores x86 (isto é, compatíveis com programas para computadores comuns, capazes de rodar Linux e Windows) de baixíssimo consumo: o Intel Atom e o VIA Nano.

    Ambos são quase perfeitos para os subnotebooks, com desempenho mais do que suficiente e pouca necessidade de refrigeração. O interessante é que os dois têm arquiteturas radicalmente diferentes!

    O Intel Atom é uma volta às origens; especificamente, uma volta ao velho 486. Para reduzir consumo e complexidade o Atom deixou para trás técnicas como execução fora de ordem, execução especulativa e renomeação de registradores, tornando-o um processador bastante convencional (alguns diriam “antiquado”, mas definitivamente não é o caso). Isso faz com que o desempenho dele não seja tão alto quanto o de um processador moderno com o mesmo clock.

    Essa estratégia já tinha sido explorada pela VIA em seus processadores baratinhos antigos (um bom exemplo sendo o C7). A partir das experiências com o C7 a VIA resolveu ir bem além do Intel Atom: o VIA Nano é um processador 64-bit superescalar muito mais sofisticado que o seu concorrente, capaz de realizar reordenação de instruções e previsão de desvios poderosa.

    Note que tudo usado no VIA Nano já existe em processadores tradicionais da Intel e da AMD; a decisão de não incluir esses recursos no Atom foi deliberada, e tomada tendo em vista quase que exclusivamente o consumo de energia.

    A pergunta que todos estão fazendo, claro, é quem vai ganhar a briga. Será que o aumento do desempenho do Nano vai justificar a provável menor autonomia ? Será que o Intel Atom vai ser rápido o suficiente para as aplicações que o mercado espera ? Recentemente a VIA demonstrou um Nano rodando Crysis, um jogo pesadíssimo feito para PCs convencionais, o que impressionou bastante a audiência. Do lado Intel, a mais nova estrela dos subnotebooks, o MSI Wind, vai ser um dos primeiros já com o Atom, possui tela de 10″ e HDD de 80 GB (ausente no EEE e Macbook Air) e será vendido a partir de 16 de junho por um preço extremamente atraente (US$ 399 a versão com Linux).

    Certamente os próximos meses nos reservam algumas surpresas.

    Inovação 1 Comentário

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    Recuperando Informação Visual

    Há algum tempo aqui no Blog, um post do Kenji chamou atenção para a categorização e recuperação de imagens. Com o aumento da oferta de câmeras digitais (cada dia melhores e mais baratas) e a farta disponibilidade de imagens na WEB (Picasa, Flickr e afins), a capacidade de humana de categorizar e buscar imagens tem diminuído rapidamente (quem nunca se esqueceu em qual pasta armazenou aquela foto perfeita?). Uma maneira de automatizar este processo é utilizar um sistema de Recuperação de Imagens com Base no Conteúdo – RIBC (em inglês Content-Based Image Retrieval).

    Na abordagem RIBC, como nome indica, o próprio conteúdo visual é utilizado na análise da imagem. De maneira geral esta análise é realizada utilizando alguma técnica de Processamento Digital de Imagens ou Visão Computacional. Mas o que seria este conteúdo visual de uma imagem? De forma simples, é possível definir o conteúdo visual com base em atributos de baixo nível como cores, formas e texturas presentes na imagem.

    Assim, para a categorização de uma base de dados visuais qualquer (como as fotos de suas últimas férias), algoritmos que, por exemplo, detectam correlações entre as cores, orientação em texturas ou formas presentes nas imagens são empregados na geração de vetores de características (feature vectors).

    Consultas a uma base já categorizada podem ocorrer de várias formas:

    • busca por exemplo, onde uma imagem de exemplo é fornecida. Tal imagem pode ser um desenho criado pelo usuário ou algum imagem pré-existente;
    • busca por distribuição de cores, onde a distribuição de cores esperada é fornecida (60% azul e 40% verde representando imagens panorâmicas com o horizonte ao fundo);
    • busca por formas, onde a forma desejada é fornecida (como o formato de um automóvel);

    A recuperação da informação visual é, então, realizada pela comparação entre os vetores de características da base e aquele obtido da consulta.

    Uma das aplicações mais interessante desta tecnologia, e que serve para ilustar o seu uso, pode ser encontrada no site do Museu Hermitage de São Petersburgo, Rússia. Desenvolvido em parceria com a IBM, o site possibilita ao visitante virtual pesquisar a grande coleção de arte do museu utilizando o sistema QBIC de recuperação de informação visual. Consultas por distribuição de cores e por desenho de exemplo são permitidas e os resultados são bastante interessantes (veja um exemplo nas imagens abaixo).

    Consulta

    Consulta por distribuição de cores no sistema QBIC.

    Resultado

    Resultado de busca do sistema QBIC.

    A RIBC é um campo de pesquisa ainda em aberto e muito desafios não possuem soluções satisfatórias como, por exemplo, a realização de consultas semânticas como “fotos de cachorros”. E, exatamente por isso, é uma área tão interessante ;-).

    Inovação, Internet, Processamento de Sinais, Visão Computacional 0 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    A famigerada taxa de acerto

    Na semana passada saiu uma notícia no site da Folha que achei muito engraçada. OK não era assim tão engraçada mas era, no mínimo, curiosa. O avião onde voava o Tony Blair foi interceptado por caças israelenses por engano (veja a nota publicada no site da Folha). Além do fato em si soar meio bizarro, o que achei particularmente divertido foi o teor contido nas entrelinhas da explicação dada para o ocorrido:

    “Um novo sistema teria sido implantado nos últimos meses para identificar aviões suspeitos, e as forças israelenses estão em alerta depois que o grupo radical islâmico palestino Hamas utilizou uma aeronave para derrubar um muro na fronteira com o Egito, há cinco meses. A imprensa britânica lembrou que o sistema de defesa aérea de Israel é um dos mais rigorosos do mundo, e que seus aviões de guerra respondem muitas vezes a alarmes falsos.”

    Posso até estar enganado mas gosto muito da idéia de imaginar que eles têm um sistema capaz de identificar aviões hostis ou que representam risco. Um sistema desses obviamente seria heurístico e estaria sujeito à famigerada taxa de acerto. Ou seja, ele funciona bem e identifica corretamente aviões suspeitos com uma taxa de acerto de X%. No caso do avião do Tony Blair, o sistema teria dado um falso positivo.

    Quando se está tentando resolver um problema do “mundo real” usando técnicas de inteligência artificial ou heurísticas é muito comum se negligenciar o aspecto da taxa de acerto esperada no funcionamento do sistema e das conseqüencias dos erros esperados quando eles acontecerem (e eles vão acontecer). Na minha opinião esse tipo de negligência é mais ou menos como desenvolver um software convencional sem se preocupar com a qualidade de sua interface ou com sua usabilidade. Ou seja, você corre o risco de desenvolver um sistema que tem um bom conteúdo mas que não serve para nada na prática!

    Tomando esse exemplo hipotético do sistema de defesa israelense, suponha que os responsáveis pelo seu desenvolvimento tivessem duas alternativas para o método de reconhecimento. Uma cujo funcionamento esperado fosse:

    • Se a aeronave for realmente hostil, a probabilidade do alarme ser disparado é 99,9%
    • Se a aeronave não for hostil, a probabilidade do alarme ser disparado é 1%

    E outra cujo funcionamento esperado fosse:

    • Se a aeronave for realmente hostil, a probabilidade do alarme ser disparado é 80%
    • Se a aeronave não for hostil, a probabilidade do alarme ser disparado é 0,01%

    Qual método é melhor?

    A resposta para essa pergunta não faz sentido se você não considerar a estratégia geral da defesa israelense e seus objetivos com o sistema bem como os custos relacionados ao disparo de um alarme dessa natureza (tirar 2 ou 3 caças do chão para interceptar uma aeronave custa dinheiro além de pontos negativos de publicidade no caso de um falso alarme). Desconsiderar essas questões podem invalidar completamente a escolha do método, por melhor que sejam os argumento científicos que embasam a escolha.

    É esse tipo de coisa que torna difícil transformar novidade científica em inovação. Por definição a inovação tem de estar incluída dentro de um contexto de uso no mundo real, fora de um laboratório de pesquisa. Meu exemplo hipotético pode parecer óbvio mas esse padrão pode se repetir em diversas situações onde a escolha não é tão simples, e nesses casos ser sensível a esse tipo de variável é o que muitas vezes diferencia uma empresa de inovação que tem um produto de sucesso de outra que não tem.

    Inovação, Usabilidade 7 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    Fold-it: um jogo online em prol da ciência

    Lembram do meu último post sobre dois artigos que descrevem a criação bio-computacional de enzimas artificiais? Pois é, o David Baker, autor daqueles papers, lançou uma nova “moda”. Um jogo online chamado fold-it. O objetivo é competir para criar conformações, ou enovelamentos (ou ainda foldings), mais prováveis pra uma proteína. Quanto melhor for o enovelamento, mais pontos o jogador ganha.

    A pergunta que voces devem estar fazendo agora é: o que um cientista renomado quer lançando um jogo online? É claro que não é só pela diversão ;-) .

    David Baker há anos vem estudando maneiras de computar o enovelamento de proteínas. O motivo é que o enovelamento, ou conformação final de uma proteína, influencia criticamente em sua função.

    E criar uma enzima nova requer descobrir exatamente o folding dessa enzima a partir de sua seqüência de aminoácidos. O problema é que essa não é uma tarefa fácil – calcular o enovelamento de um proteína requer efetuar até trilhões de cálculos.

    A idéia do jogo começou com o Rosetta, um algoritmo que usa o método de Monte Carlo para predizer a melhor conformação de uma proteína. Já existe há anos um programa de rede distribuída chamado Rosetta@home, que usa computadores voluntários do mundo inteiro com o objetivo de rodar o Rosetta, enquanto ociosos – um screen saver é aberto e mostra como o programa tenta descobrir o enovelamento de diversas proteínas.

    Mas os usuários verificavam que esse programa fazia coisas visivelmente idiotas – o que era meio de se esperar, por ser um algoritmo força bruta. A idéia do David Baker foi de, ao invés de usar uma marreta pra solucionar o problema, usar a capacidade de resolver problemas 3D do cérebro humano, usando um jogo.

    E o pior é que funciona – houve situações em que o jogador conseguiu achar corretamente a conformação uma proteína, com forma já conhecida, mais rápido que o computador! ;-)

    Mas a grande “jogada” do David Baker é fazer com que os jogadores criem conformações novas para proteínas ainda não conhecidas. Essas conformações poderão servir para a síntese de drogas e enzimas ainda não conhecidas, de maneira mais rápida… e divertida ;-)

    A pergunta que voces devem estar fazendo agora é: o que um cientista renomado quer lançando um jogo online? É claro que não é só pela diversão ;-) .

    David Baker há anos vem estudando maneiras de computar o enovelamento de proteínas. O motivo é que o enovelamento, ou conformação final de uma proteína, influencia criticamente em sua função.

    E criar uma enzima nova requer descobrir exatamente o folding dessa enzima a partir de sua seqüência de aminoácidos. O problema é que essa não é uma tarefa fácil – calcular o enovelamento de um proteína requer efetuar até trilhões de cálculos.

    A idéia do jogo começou com o Rosetta, um algoritmo que usa o método de Monte Carlo para predizer a melhor conformação de uma proteína. Já existe há anos um programa de rede distribuída chamado Rosetta@home, que usa computadores voluntários do mundo inteiro com o objetivo de rodar o Rosetta, enquanto ociosos – um screen saver é aberto e mostra como o programa tenta descobrir o enovelamento de diversas proteínas.

    Mas os usuários verificavam que esse programa fazia coisas visivelmente idiotas – o que era meio de se esperar, por ser um algoritmo força bruta. A idéia do David Baker foi de, ao invés de usar uma marreta pra solucionar o problema, usar a capacidade de resolver problemas 3D do cérebro humano, usando um jogo.

    E o pior é que funciona – houve situações em que o jogador conseguiu achar corretamente a conformação uma proteína, com forma já conhecida, mais rápido que o computador! ;-)

    Mas a grande “jogada” do David Baker é fazer com que os jogadores criem conformações novas para proteínas ainda não conhecidas. Essas conformações poderão servir para a síntese de drogas e enzimas ainda não conhecidas, de maneira mais rápida… e divertida ;-)



    --> Biotecnologia, Inovação, Usabilidade, Visualização Cientifica 4 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)

    Analisando Dados “Misteriosos”

    Naquele estranho (e meio nojento – tudo bem, muito nojento) filme de 1986 do Cronenberg, “A Mosca”, em algum momento a repórter interpretada pela Geena Davis pergunta ao cientista vivido pelo Jeff Goldblum como ele conseguiu construir um teleportador do nada no galpão dele. O cientista responde que na verdade ele não fez aquilo sozinho e nem do nada, ele contratava equipes de cientistas ao longo do globo pedindo coisas esquisitas do tipo “quero um analisador molecular obedecendo tais e tais especificações”, e aí uns meses depois lá chegava o analisador molecular. As equipes independentes de cientistas que resolviam esses sub-problemas e criavam esses componentes só enxergavam o que precisavam enxergar, não tinham noção de onde a solução que eles desenvolveram seria aplicada, e principalmente não tinham a menor idéia do projeto do teleportador que o personagem principal estava desenvolvendo.

    No mundo real, longe das referências nerd envolvendo obras de ficção científica, devo dizer que nós aqui do Vetta Labs às vezes nos sentimos um pouco como os cientistas do filme que construíram o analisador molecular sabe-se lá para ser usado em que. Como diz o ditado, “o segredo é a alma do negócio”, e isso é particularmente aplicável quando o negócio envolve a análise de informações de outras empresas que querem ao mesmo tempo terceirizar serviços de mineração de dados e preservar o sigilo de seus contratos e seus clientes.

    Pois bem, uns meses atrás, em mais um daqueles exemplos das maravilhas do outsourcing de pesquisa, fomos contratatos pela Novamente para analisar os dados de um terceiro cliente-cujo-nome-não-será-revelado, que como dá para suspeitar pela omissão do nome era justamente desses que preferem manter seus dados e planos envoltos em mistério. Recebemos uma base de dados composta por dezenas de milhares de tuplas, cada uma formada por um punhado de valores correspondendo a um pequeno conjunto de variáveis. O problema que nos foi colocado foi tentar prever uma das variáveis em especial com base nos valores de todas as outras, com uma taxa de acerto superior a um certo limite mínimo aceitável. A variável a ser predita era, para todos os fins práticos, lógica, do tipo “sim” ou “não”. As demais variáveis eram bem variadas, algumas claramente numéricas, outras também lógicas, e finalmente umas que talvez fossem numéricas ou talvez fossem simbólicas. O caso é que não tínhamos nem muita certeza do tipo de algumas das variáveis porque não nos foi dada qualquer informação sobre as mesmas. Os nomes de algumas variáveis até davam pistas do que elas deviam ser (mas não exatamente em que unidades elas estavam sendo medidas), porém outras variáveis tinham nomes herméticos que não ajudavam muito do ponto de vista da, digamos, semântica dos dados.

    Assim, inventando uma base de dados parecida para fins de exemplificação, vamos supor que temos um conjunto aparentemente desprovido de sentido de quatro variáveis chamadas TUTU, PEDRA, CAVALO e CHUVA, e com base nelas temos de prever se o valor de uma quinta variável RESPOSTA é “sim” ou “não”. Existem dezenas de milhares de combinações-exemplo de valores de TUTU, PEDRA, CAVALO e CHUVA com valores conhecidos de RESPOSTA, e com base nelas devemos achar regras engraçadas como, digamos, “Se TUTU vale mais que 0.65, PEDRA tem valor ‘mole’ ou ‘redonda’, CAVALO pode ter qualquer valor e CHUVA vale ‘forte’, então RESPOSTA é ‘sim’, caso contrário ‘não’”, regras essas capazes de prever RESPOSTA corretamente com uma acurácia maior que um mínimo estipulado pelo cliente.

    Numa situação dessas, o bom minerador de dados deve se ater àquela máxima que acredita-se o filósofo-patrono das ciências exatas, o Pitágoras, soltou uns 25 séculos atrás: “Tudo são números”. É verdade que, como já exemplificamos várias vezes aqui no blog, quando mais informação você tem sobre uma base de dados, melhor, e às vezes é inclusive interessante usar outras bases de dados direta ou indiretamente relacionadas para “amplificar” a base objeto do seu estudo. Porém, nas situações em que não podemos (ou não devemos :) saber mais a respeito dos dados, o puro uso da lógica e da matemática podem ainda assim ser surpreendentemente efetivos.

    Foi assim no caso dessa base de dados “misteriosa”. Devo dizer que criar uma abordagem capaz de passar do limite de acurácia mínimo pedido pelo cliente foi bem… desafiador, talvez inclusive devido ao desconhecimento da semântica dos dados. Mas, no final, chegamos a uma método bem robusto capaz de resolver até nossas dúvidas sobre o tipo exato de algumas variáveis. Nessa metodologia (da qual falarei apenas por alto para não “falar demais” :), desenvolvemos uma maneira de medir a “capacidade de predição” de uma variável quando assumia um dado valor (não importando se esse valor é um número, uma string, lógico, etc), e também para qual resposta (“sim” ou “não”) tendia esse dado valor de dada variável. No final, ao contrário do exemplo acima, nossas regras verificavam não os valores diretos das variáveis, mas sim a capacidade de predição dos valores que elas estavam assumindo na tupla em questão, e com base nisso decidiam se a tupla apontava para “sim” ou um “não”.

    Conseguimos com essa abordagem ultrapassar (por pouco) a acurácia mínima pedida pelo cliente, inclusive em um segundo conjunto de tuplas completamente desconhecidas, seguindo o mesmo formato de dados, que o cliente nos forneceu para uma validação adicional. É possível que agora formalizemos um serviço de análise e desenvolvimento de mais longo prazo – e quem sabe até com um véu de mistério menos espesso. De qualquer forma, a lição que ficou foi: os números são seus amigos, não se desespere se eles são a única coisa ajudando você em seu trabalho de análise de dados. ;-)

    Data Mining, Inovação, Inteligência Artificial 0 Comentários

    1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 5,00 out of 5)

    « Previous Entries Next Entries »