Thursday, 28 June 2012

Sites ajudam usuários a recuperar fotos e câmeras perdidas

Ter uma câmera fotográfica perdida ou furtada pode representar tanto um prejuízo financeiro como de uma série de memórias. Para evitar esse tipo de perda, uma série de sites disponibiliza on-line as imagens que estão em câmeras ou cartões de memória perdidos, na esperança de que alguém que visite a página possa conhecer as pessoas que estão na foto.

Um desses sites é o ifoundyourcamera.net (acesse aqui), feito por uma equipe baseada no Canadá. “As imagens que colocamos aqui vem de lugares tão distantes como Japão, Irlanda, Austrália, Islândia e Dubai”, diz o site. “Diga a alguns dos seus amigos sobre esse site e vamos tentar retornar algumas fotos a seus donos.”

Nos casos de sucesso, em que as câmeras já foram devolvidas, estão imagens de casamentos, nascimentos de bebês e viagens.

O site também recebe fotos de quem encontrou uma câmera perdida. “Nos envie pelo menos quatro fotos que estão dentro da câmera e inclua detalhes sobre a localização de onde ela foi encontrada”, explica a equipe do site. A comunicação é toda feita por e-mail.

Já o Stolen Camera Finder (acesse aqui) faz a busca por imagens de uma maneira diferente. Ele usa o número de série da câmera, que é armazenado nas fotos, para fazer uma busca na web por outras imagens que possam ter sido feitas, posteriormente, com o mesmo aparelho. Existe uma lista de câmeras que podem ser encontradas com o serviço (veja aqui).

Outros dois sites que funcionam da mesma maneira são o Camera Found (veja aqui) e o Camera Trace (acesse aqui).

Tuesday, 26 June 2012

Modelo padrão de medidores inteligentes é o que falta para alavancar esse mercado de US$ 36 bilhões

As vantagens de implementar uma rede de energia inteligente ( também conhecida como smart grid) no Brasil são inúmeras: desde economizar energia a até aprimorar a segurança e a qualidade da rede de distribuição. O Brasil tem uma alta incidência de furto de eletricidade, e os clientes pagantes acabam tendo que subsidiar essa energia roubada.

O sistema de medidores inteligentes é uma maneira eficaz de se lidar com esses problemas: esses equipamentos irão eliminar a leitura manual de medidores, diminuindo assim erros de leitura e a violência contra os funcionários da empresa fornecedora, permitindo um controle maior sobre como a eletricidade está sendo gasta.

Ao mesmo tempo que essa simples e brilhante solução aprimorará a qualidade da energia entregue, ela também permitirá que o cliente saiba se seu vizinho rouba sua energia – ou se as empresas distribuidoras estão cobrando um preço justo.

A Northeast Group, uma empresa de Washington especializada no mercado de medidores inteligentes, publicou recentemente um estudo focado nas oportunidades desse setor em mercados emergentes. De acordo com este estudo, investimentos com medidores inteligentes no Brasil serão de 36.6 bilhões de dólares até 2022. O mesmo estudo indicou que as vendas de medidores inteligentes na América Latina irá gerar 24 bilhões de dólares até 2020. Vendas já estão particularmente agressivas no Brasil, onde se antecipara que 63.5 milhões de unidades serão usadas até o fim da década.

Mesmo que a indústria e o mercado de medidores inteligentes se mostrem otimistas sobre as oportunidades neste segmento, ainda existe um grande obstáculo que precisa ser superado: o país, junto com outros governos da América Latina, precisa escolher definitivamente um modelo padrão de medidor inteligente. Todos os grandes investimentos irão continuar em espera até que essa decisão seja tomada. Essa medida é importante não somente por promover melhores práticas mas especialmente para permitir que autoridades e organizações privadas tenham as ferramentas para implementar boas políticas, optimizar instalações e sistemas e aprimorar a eficiência energética.

A padronização e gerenciamento da energia podem contribuir para um processo continuo de aprimoração do setor energético. Modelos em relação aos sistemas de gerenciamento de energia, serviços eficientes de energia, terminologia, referências para o uso de energia, auditorias, eficiência energética e cálculos para corte de gastos são importantes para tornar possível a implementação de um sistema de rede inteligente.

O Brasil já experimenta em grande escala com vários utilitários em um conceito de ‘cidade inteligente’ que utiliza um grande número de aplicações de redes de energia inteligentes, como distribuição renovável de geração e network sofisticada em áreas residenciais. O grupo português EDP, junto com os módulos Telit GE865, permitiram que Aparecida fosse a primeira ‘cidade inteligente’ brasileira, e é uma boa experiência para se avaliar as necessidades e os modelos que a Agência Nacional de Energia Elétrica (Aneel) irá escolher.

Lá foram instalados 15,3 mil medidores inteligentes que transmitem em tempo real todas as informações de cada consumidor. A partir do monitoramento online, a distribuidora detecta qualquer interrupção de energia em determinada área, e pode restabelecer o fornecimento de luz sem deslocar equipes de emergência. Além disso, a lâmpadas da cidade são em LED, o que economisa energia, e há planos para instalação de pontos de recarga para carros elétricos. Realmente, Aparecida aponta para o futuro do Brasil, onde todas as cidades terão essas inovações.

Grandes eventos, como a Copa de 2014 e as Olimpíadas de 2016, e o crescimento contínuo da economia irão empurrar as necessidades elétricas do Brasil ao limite. Redes inteligentes serão essenciais para solucionar varias demandas e necessidades que possam surgir no futuro. O setor privado está esperando ansiosamente por uma decisão que está agora nas mãos do governo brasileiro.

Emmanuel Maçon-Dauxerre, diretor de Vendas do Segmento de Energia da Telit Wireless Solutions.

Novo Portal Viracopos amplia serviços aos usuários do aeroporto

Tendo em vista oferecer um número cada vez maior de serviços online aos usuários do aeroporto internacional de Campinas, está no ar o novo Portal de Serviços de Viracopos (www.viracopos.com.br). Com layout e conteúdo renovados, o site passa a contar com novas funcionalidades que facilitam a vida dos passageiros do aeroporto e também das empresas que utilizam os serviços de Viracopos para armazenamento e transporte de cargas.

Criado em 2009, o portal vem acompanhando de perto a grande expansão no número de usuários pela qual passou o aeroporto. Ao todo, são mais de 60 mil visitas mensais ao site, número que vem crescendo ano após ano. “Fizemos uma analise aprofundada da navegação e dos serviços mais procurados pelos usuários nos últimos anos. Essas informações nortearam o desenvolvimento do novo portal”, explica Peterson Turola, gestor do Portal Viracopos.

Além dos serviços já disponibilizados na versão anterior, como guias de hotéis, traslados, casas de câmbio e voos, o novo Portal Viracopos passa a oferecer a possibilidade de o passageiro fazer de forma online, desde simulações de custo de estadia até reservar previamente vaga nos estacionamentos Garage Inn (dentro do complexo de Viracopos) e no Virapark, dois dos principais estacionamentos que servem o aeroporto.

Os usuários dos serviços de cargas, que já encontram no portal um amplo guia de serviços de transporte e logística, passam a contar com a possibilidade de cotar, em tempo real, o custo de armazenagem de mercadorias de acordo com seu valor, peso, situação e período de armazenagem.

Outra novidade está na forma com que os serviço oferecidos estão dispostos no site. Os mais procurados pelo internauta, de acordo com a análise do histórico de uso, passam a contar com botões de acesso rápido no topo da página. As informações gerais sobre o aeroporto, a cidade de Campinas e também sobre os destinos atendidos por Viracopos também ganharam destaque com a reorganização do menu principal. Em sua nova versão, o site continua trazendo, com atualização diária, as principais notícias que envolvem o aeroporto e todo o ecossistema de transportes e negócios da região de Campinas.

De acordo com Turola, com a renovação, o site passa a estar preparado para atender à crescente procura por informações sobre o aeroporto e também para agregar ainda mais serviços aos usuários no futuro. “No segundo semestre, o internauta poderá não apenas consultar, mas também comprar passagens aéreas, alugar carros e fazer reserva em hotéis por meio do site Viracopos Viagens. Nosso objetivo é de que o portal se mantenha como principal referência na internet para os usuários, contribuindo para o desenvolvimento do aeroporto”, completa.

O novo Portal Viracopos foi desenvolvido e é gerenciado pela Web Info Solutions, agência especializada em marketing digital.

Thursday, 21 June 2012

Resource lança solução para auditoria de transações bancárias na nuvem

A Resource IT Solutions anunciou no CIAB Febrabran 2012 o Cloud SiteSeeing, sistema desenvolvido dentro de sua fábrica de software que é capaz de monitorar qualquer transação online a partir da experiência do usuário.

De acordo com Gilmar Batistela, presidente da empresa, com o SiteSeeing na nuvem, a solução ficará acessível a um número ainda maior de empresas e instituições que queiram conhecer a experiência dos usuários de seus serviços eletrônicos. Ele defende que a tecnologia na nuvem simplifica e barateia a utilização ,pois tanto a infraestrutura quanto o software podem ser acessados diretamente na nuvem por um valor fixo mensal, sendo que as licenças e a infraestrutura necessária são de responsabilidade da Resource.

“O SiteSeeing revela o ponto de vista do usuário, seja de Internet Banking, Banking Phone, URAS, ATMs, portais de ecommerce ou outra aplicação online qualquer. É uma espécie de auditor e, portanto, deve mesmo ter uma visão de autonomia e independência em relação aos bancos. Em nuvem, o sistema não fica sequer instalado no banco, mas realiza uma monitoria isenta que revela a verdade sobre a qualidade dos serviços prestados pelos bancos”, analisa Batistela.

Ele é destinado também ao monitoramento de aplicações e tecnologias variadas, como aplicações mainframe através de emuladores, transações de cartões de crédito, transações financeiras – ISO 8583, mensageria, e-mail, sistemas de CRM ou ERP, benchmark de negócios e sistemas proprietários. Os diferenciais da solução SiteSeeing em relação ao mercado incluem o armazenamento das informações de todo o processo de monitoramento e, com isso, consegue gerar regras de alertas inteligentes.

Meios eletrônicos de pagamentos

De acordo com levantamentos feitos pela própria Resource, 70% das processadoras de cartões, 40% dos adquirentes e 50% dos bancos são clientes da sua área de Card Solutions. Sua média de projetos anual é de 500, totalizando cerca de 700 mil horas trabalhadas nesse nicho específico de serviços de software. “Todos esses números, além de quase duas décadas de atuação na área, colocam a Resource na liderança desse segmento no país”, afirma Marcus Piombo, vice-presidente de Operações.

Monday, 18 June 2012

Sua senha pode ser mais comum do que você imagina, aponta estudo

Para chegar a essa conclusão, 70 milhões de senhas foram analisadas por um pesquisador da Universidade de Cambridge.

Independente de sua nacionalidade, idade ou idioma, é bem provável que outras pessoas de diferentes locais do mundo tenham senhas muito parecidas com as suas. Tal afirmativa foi comprovada recentemente, em um estudo que analisou a maior quantidade de senhas que se tem notícia.


O responsável por tal façanha foi o pesquisador Joseph Bonneau, da Universidade de Cambridge. Para chegar a tais considerações, ele analisou a força das senhas de cerca de 70 milhões de pessoas cadastradas no Yahoo.


Enquanto outras pesquisas são normalmente limitadas pela falta de acesso aos dados — já que nem as pessoas nem as empresas costumam fornecem abertamente este tipo de informação —, Bonneau acessou as versões levemente cifradas das senhas, o que lhe deu informações suficientes para, pelo menos, ver os padrões e as tendências existentes entre elas.


O jeito é mudar sempre
O resultado de tudo isso se encontra na pesquisa “The science of guessing: analyzing an anonymized corpus of 70 million passwords” (algo como “A ciência da adivinhação: análise de um corpus anônimo de 70 milhões de senhas”). Um dos pontos mais surpreendentes do estudo está no fato de que, mesmo em comunidades linguísticas aparentemente distantes, as mesmas senhas pouco seguras foram escolhidas.


A pesquisa também apontou que não importa qual é o seu idioma: sua senha é quase sempre mais fraca do que os especialistas em segurança sugerem. Já os únicos que tiveram senhas consideradas fortes estavam na categoria de pessoas que mudam suas senhas ocasionalmente.

Thursday, 14 June 2012

COBIT 5 e lado comportametnal da gestão de mudanças

Apesar da necessidade de focarmos no ser humano os processos de gestão de mudanças nas empresas, nem sempre o profissional tem sido a prioridade. Isto porque, embora a Governança Corporativa e de TI tenham como base o tripé: Pessoas, Processos e Tecnologia, o primeiro, muitas vezes, fica em último nos projetos de gestão, independentemente do porte ou perfil da organização.

Adicionalmente aos processos de gestão de mudanças utilizando-se do COBIT e ITIL,dentre outros frameworks, o fator motivacional deve ser preponderante em qualquer tipo de mudança, seja no âmbito pessoal ou profissional. Esse problema se corrige pela motivação dos profissionais envolvidos em qualquer projeto de mudança de processos de negócio ou de tecnologia.

Um programa típico com esse objetivo envolve a aplicação de uma série de dinâmicas de grupo, apresentadas de forma lúdica. Assim, busca-se a compreensão de conceitos relevantes para a adoção das mudanças no ambiente corporativo. Uma vantagem das dinâmicas é que resultam em benefícios que refletem no bem-estar do profissional, com melhor entrosamento e espírito de equipe, o que gera ganhos de produtividade e aceitação das mudanças no ambiente corporativo.

Dentre as atividades e métricas estabelecidas no COBIT- Framework de Negócios para Gestão de TI Corporativa destacam-se:

• Atitude visível da alta administração em estabelecer a direção, alinhar, motivar e inspirar as partes interessadas a desejar a mudança;
• Estabelecimento de um sistema de recompensa para promover a mudança cultural desejável;
• Percentual de usuários apropriadamente treinados para mudança;
• Comunicação do Corpo Executivo demonstrando o comprometimento com a mudança;
• Identificação de potenciais agentes de mudança para implementar mudanças de cima abaixo em todos os níveis hierárquicos da organização;
• Identificação e gerenciamento de líderes resistentes a mudanças;
• Plano para a operação e uso da mudança que se comunica e se baseia em ganhos rápidos abordando aspectos comportamentais e culturais da mais ampla transição, aumentando o engajamento de todos na organização;
• Plano com uma visão holística de mudança que forneça documentação com orientação, formação, coaching, transferência de conhecimento, um maior apoio pós implementação e suporte contínuo;
• Acompanhamento de medidas de sucesso sobre como as pessoas sentem uma mudança, tomando ações corretivas quando necessário;
• Monitoramento e compartilhamento de lições aprendidas em toda a organização;

Como referência externa o COBIT 5 inclui Kotter, John; Liderando Mudança, Harvard Business School Press, EUA, 1996, a exemplo dos diversos conhecimentos que sempre incluí nos meus cursos de COBIT desde a versão 3 como PNL – Programação Neurolinguística, Gestão de Conhecimento, Matriz de Competências e Avaliação 360º, dentre outros. Afinal, o framework diz o quê fazer e não o como fazer.

O maior desafio da gestão de mudanças é termos tempo para corrigir, mas não termos para planejar e fazer certo da primeira vez.

Antonio de Sousa, sócio dretor da Big Five Consulting , especializada em Governança de TI, 1º. Presidente e Co-Fundador da ISACA no Brasil

Tuesday, 12 June 2012

Qualidade de dados é o novo foco do BI

Qualidade de dados é a “bola da vez” na maioria dos projetos de gerenciamento de informação e business intelligence nas empresas em todo o mundo. O tema que há quatro anos era tratado como uma tendência de implementação dentro do planejamento de médio e longo prazo nos planos de TI das empresas, agora é tratado como prioridade.

A gestão da qualidade de dados era tratada de forma pontual nas empresas para apoiar as ações de contatos a clientes, principalmente para atender demandas das aplicações de database marketing e manutenção de cadastros, objetivando ações de campanhas e envio de cobranças.

Com as novas demandas legais de regulamentações específicas de cada segmento de indústria, certificar e auditar bases de dados demandou, por parte das empresas, ações de monitoramento constante da qualidade das informações geradas nos atendimentos e operações. Somando-se às questões legais, os vários casos de fusões e aquisições demandaram o uso de metodologia e ferramentas de qualidade de dados para integrar sistemas. Mas a grande tendência de mercado que motivou a priorização em projetos de qualidade de dados foi a mudança de estratégia de grande parte das empresas, cujo foco de atuação agora é orientado a clientes.

Embora isso pareça ser uma transformação simples, a mudança demanda novos processos, indicadores e ferramentas para os gestores entenderem o perfil e o comportamento dos seus clientes, além de trabalhar bases externas que estudam o perfil do consumidor dentro do seu mercado de atuação. Projetos tradicionais de BI que eram focados em indicadores de performance dos seus produtos agora precisam ser remodelados para atender indicadores de comportamento dos clientes e consumidor. Diante da mudança deste foco, aplicações de CRM, Database Marketing e Call Center tiveram seus investimentos priorizados.

Diante deste cenário, ter a visão consolidada do ativo de clientes e suas relações com a companhia torna-se fundamental. Partindo desta premissa, a área de TI é requisitada para viabilizar esta “visão única” a fim de subsidiar as aplicações, indicadores e processos que irão sustentar todas as ações estratégicas de marketing e vendas da empresa, entretanto, é neste ponto que os problemas começam a acontecer.

Poucas empresas estão preparadas para este tema e a falta de maturidade em projetos de qualidade de dados pode trazer atrasos em todo um plano de negócios que a empresa visa executar. Metodologia de qualidade de dados e MDM (master data management) são disciplinas que orientam projetos bem sucedidos de visão única de clientes. Além das metodologias, softwares voltados para monitoramento e tratamento da qualidade dos dados criam a infraestrutura necessária para viabilizar esta missão.

Por ser um tema recente no segmento de TI, as empresas possuem diversas dúvidas, tais como: Preciso implementar um “MDM”? MDM é uma metodologia ou uma ferramenta? Meu “BI” está preparado para trabalhar dados de clientes de forma adequada? Como “encaixo” o subset de visão única de clientes dentro do meu DW atual? Tenho que refazer o meu DW? Como posso manter uma base única de clientes garantindo todas as regras de qualificação? Tenho que alterar o meu sistema legado? Base única de clientes é pré-requisito para implementar uma aplicação de CRM?

É importante entender que projetos de qualidade de dados e MDM demandam um conhecimento específico e que necessitam de preparação e planejamento por parte das empresas. Conhecimento da metodologia, softwares de apoio e preparação de equipe para este tema são fatores de sucesso.

Laurier Soares, Consultor de Negócios da MD2 Consultoria

Leilão de 4G abre caminho para a banda larga ultrarrápida no país

O governo realiza nesta terça-feira (12) um leilão que definirá o futuro da banda larga ultrarrápida na rede de telefonia celular, a chamada rede 4G - que, na avaliação de especialistas ouvidos pelo G1, será ao menos 20 vezes mais rápida que a atual rede 3G.
A faixa de frequência de 2,5 gigahertz foi selecionada pela Agência Nacional de Telecomunicações (Anatel) para permitir a transmissão de dados sem fio em alta velocidade no país. O leilão também engloba a licitação da faixa de 450 MHz para a oferta de serviços de voz e dados em áreas rurais.


A partir das 10h, a agência vai abrir, analisar e julgar as propostas de preço para a licitação de 4G. Os seis participantes são os grupos Claro, Oi, TIM, Vivo, Sky e Sunrise Telecomunicações - empresa de TV paga adquirida recentemente pelo fundo de investimento do bilionário húngaro George Soros.

A evolução do acesso móvel à internet começa a ocorrer em abril de 2013 nas seis cidades-sede da Copa das Confederações (Brasília, Fortaleza, Recife, Rio de Janeiro, Salvador e Belo Horizonte) e nas sedes e subsedes da Copa do Mundo de 2014, a partir de dezembro de 2013. Veja ao lado as datas previstas para a chegada do serviço 4G no país.

A banda larga ultrarrápida entrou em operação em 2006, na Coreia do Sul, por meio da tecnologia WiMax, migrando posteriormente para o padrão Long Term Evolution (LTE), que permite downloads de 100 megabits por segundo (Mbps) no acesso móvel. Hoje, segundo a consultoria ABI Research, há mais de 40 redes 4G em operação no mundo, que vão conectar 61 milhões de dispositivos móveis até o fim deste ano (a maior parte smartphones), chegando a 100 milhões em 2013.

A experiência real dos serviços 4G, no entanto, depende da estrutura da rede e do número de usuários que compartilham o sinal em determinado momento. “Além disso, as operadoras costumam estabelecer um limite à velocidade de acesso para garantir uma navegação uniforme. Então mesmo que somente uma pessoa esteja acessando a internet em um determinado local, a velocidade não vai atingir 100 Mbps, por exemplo”, explica Eduardo Tude, presidente da consultoria Teleco.

Quando chegar ao país, a tecnologia LTE permitirá que o internauta brasileiro faça o download de uma foto em 1 segundo ou baixe uma música em 2 segundos, em seu smartphone, tablet ou com um modem 4G portátil no computador. A previsão se baseia em uma oferta local nas velocidades entre 5 e 12 megabits por segundo (Mbps) estimada pelas consultorias Teleco e IDC Brasil. Confira abaixo o gráfico comparativo de velocidades de acesso entre os serviços 4G, 3,5G e 3G.

A velocidade real estimada para as redes 4G representa um acesso de 20 a 40 vezes mais rápido, em média, do que o alcançado com as atuais redes 3G – entre 256 kilobits por segundo (Kbps) e 1 Mbps.
No edital do leilão de 4G, a Anatel não define as velocidades de acesso que devem ser oferecidas pelos prestadores da banda larga de quarta geração na frequencia de 2,5 GHz. Já nas áreas rurais, pela frequência de 450 MHz, as empresas serão obrigadas a oferecer acesso à internet com taxas de transmissão de 256 Kbps de download e 128 Kbps de upload, no mínimo.


O empresário Breno Masi, de 29 anos, já vem sentido a diferença entre as redes 3G e 4G desde meados de março, quando comprou o novo iPad, da Apple, e adquiriu um plano de banda larga nos Estados Unidos. “Hoje, o iPad com 4G é um parceirão”, diz o executivo da área de tecnologia, que usa o tablet com plano de US$ 50 mensais da AT&T para trabalhar em suas viagens mensais ao exterior. “Consigo fazer uma videoconferência, enquanto continuo trocando e-mails e navegando, numa boa, sem prejudicar a transmissão”, afirma.


Em um comparativo feito no Central Park, em Nova York, com o aplicativo SpeedTest, Masi registrou uma velocidade de acesso de 31 megabits por segundo (Mbps) de download e 15,25 Mbps de upload no acesso 4G pela operadora AT&T.


Dependendo da localidade, a espera do consumidor brasileiro pela banda larga móvel pode ser longa - até dezembro de 2019 - já que o cronograma da Anatel exige tanto a atualização para a oferta do acesso 4G como a obrigatoriedade de acesso 3G ou em tecnologia equivalente em todo o país. O leilão desta terça-feira também engloba faixas de frequência de 450 MHz destinadas ao acesso à internet em áreas rurais.

Internet 4G (Foto: Arte/G1)

3,5G, tecnologia intermediária
Enquanto espera pelas redes móveis de quarta geração (4G), o consumidor brasileiro que optar por um aparelho compatível com a tecnologia High Speed Packet Access Plus (HSPA+) pode experimentar uma navegação mais rápida em relação ao 3G, nas redes das operadoras que já fizeram uma atualização para o 3,5G.

O novo iPad e o recém-lançado smartphone Samsung Galaxy S3 estão entre os exemplos de dispositivos vendidos no Brasil que são compatíveis com a tecnologia. "Agora com o 3,5G consegui navegar em um pico de velocidade de 5 Mbps de download e 1 Mbps de upload", conta Masi, que possui plano de dados da Vivo em seu tablet.

A tecnologia já está disponível nos pontos de acesso 3G da Vivo, no território brasileiro e também é oferecida em 964 cidades pela operadora Claro, desde o final de 2011. A TIM ativou o 3,5G em algumas regiões da cidade de São Paulo e a Oi ainda não tem data para oferecer o serviço, embora sua rede já esteja atualizada para o HSPA+ em 16 cidades.


Enquanto a tecnologia intermediária exige uma atualização de software das redes, a evolução para o serviço 4G requer uma nova infraestrutura para a oferta de dados. "Toda a parte de infraestrutura acaba sendo nova, então se deve começar a trabalhar do zero. Esse é o grande desafio de uma rede 4G hoje, porque a operadora, que é responsável por bancar a infraestrutura, tem que começar em todos os pontos que tem cobertura, e instalar uma rede nova", explica Rodrigo Ayres, gerente da LG no Brasil.

Friday, 8 June 2012

Os dois lados da conectividade e a segurança nos setores público e privado

Nos dias de hoje, as pessoas, empresas e instituições estão sempre ligadas e conectadas. O mundo da comunicação instantânea e da conectividade constante que consideramos garantido é limitado apenas pela nossa capacidade de criar e inovar – e isso parece não ter fim. A realidade, porém, é que esse mesmo mundo de conectividade também cria riscos.

O risco é determinado por três fatores: oportunidade, motivação e capacidade. Quem conseguir afetar qualquer um ou mais de um desses fatores reduzirá o risco geral. No atual ambiente da conectividade, os três fatores – oportunidade, motivação e capacidade – crescem desordenadamente.


A começar pelo fator motivação, ouve-se muito sobre vários criminosos que são altamente motivados, por dinheiro, pelo orgulho nacional, pela religião ou por algum outro fator atraente. Esses criminosos têm muito a ganhar e quase nada a perder, pois as leis, penalidades e certa incapacidade de impô-las tornam os cibercrimes extremamente atraentes e rentáveis.

Acrescente-se a isso o fato de que o nível de qualificação da maioria dos cibercriminosos tem aumentado radicalmente desde a época em que os adolescentes “trabalhavam” nas garagens de suas casas. Agora, o perfil que encontramos é o de profissionais sérios e até mesmo de empresas que são “contratadas” para realizarem ataques digitais. Simplificando, é relativamente fácil executar ataques, utilizando milhares e até milhões de computadores para atacar um único alvo, criando exércitos virtuais que são muito menos dispendiosos e mais dinâmicos do que os exércitos físicos. As ferramentas e técnicas estão bem documentadas, são fáceis de encontrar e estão ao alcance de pessoas mal-intencionadas armadas com um laptop e uma conexão à Internet.


Mas quem tem a oportunidade? Nesse outro fator de risco, certamente é quem está dentro das organizações – pessoas que conhecem as empresas, bem como seus dados e sistemas mais sigilosos – diante de uma oportunidade ideal. Mas, em um mundo altamente interconectado, um atacante (hacker, cracker ou pessoa mal-intencionada) não precisa necessariamente estar dentro de uma organização para entrar nela.

Na verdade, praticamente qualquer dispositivo que usamos normalmente – celulares, tablets, notebooks, pen drives e até mesmo um equipamento médico – é perfeitamente capaz de levar um atacante para dentro da empresa. Qualquer coisa na qual alguém possa se conectar ou à qual possa ser conectado – através de USB, conexão de rede com fio, conexão de rede Wi-Fi, Bluetooth, RFID – é suficiente para permitir a entrada de um cibercriminoso.

No entanto, a outra importante realidade neste mundo conectado é a forma como os dispositivos conectados estão ajudando as pessoas a solucionarem problemas consideráveis, e muitos desses problemas são altamente pessoais. Por exemplo, os pacientes com doenças cardíacas podem ficar em casa, enquanto os médicos monitoram suas condições em suas clínicas, os alunos nas zonas rurais podem ter aulas em grandes universidades via on-line, os motoristas podem travar a distância as portas dos seus carros ou serem encaminhados ao seu exato destino.


As empresas inovadoras têm todos os incentivos para oferecerem cada vez mais produtos e serviços para atender às necessidades mais fundamentais dos consumidores e, ao mesmo tempo, torná-los mais interconectados. Essa é uma fortíssima tendência de mercado que continuará no futuro. Mas, a menos que os dispositivos sejam bloqueados e protegidos desde o seu projeto, os cibercriminosos terão ainda mais oportunidades de lucro.


O risco para cidadãos e consumidores


A maioria dos consumidores espera, quando acessa a Internet, que suas informações estejam em sigilo e que seus filhos estejam navegando de forma segura, desde que não acessem sites proibidos por eles. No entanto, isso é uma ilusão, pois para cada atividade on-line há uma forma de ataque e uma maneira adequada para prevenir ameaças.


As ameaças que os consumidores enfrentam cobrem toda a gama de possibilidades de ataques, envolvendo desde o roubo de identidade até a perda de informações pessoais ou financeiras, a infecção dos sistemas e computadores e a destruição de hardware, software e dados. O advento das novas tecnologias móveis, especialmente dos smartphones e tablets, abriu novos vetores de ataque para os hackers ou atacantes.


Segundo recente testemunho dado pelo Dr. Rangam Subramanian, do Idaho National Labs, ao Comitê de Ciência da Câmara dos Estados Unidos, todos os setores essenciais da economia dependerão, em breve, das conexões sem fio: Energia, Segurança Pública, Finanças, Saúde, Transporte, Entretenimento e muito mais. No entanto, a cada facilidade, recurso e inovação que a tecnologia sem fio proporciona, haverá a introdução de mais oportunidades para os hackers atacarem.


Atualmente, pessoas em todo o mundo realizam atividades de Internet banking, fazem compras on-line, entre outros serviços, através do acesso sem fio em pontos de acesso, usando seus smartphones, o que pode levá-las diretamente às armadilhas montadas pelos cibercriminosos. E a revolução das conexões sem fio está apenas no início.


O risco à propriedade intelectual


Um dos tipos mais insidiosos de ameaças para os indivíduos, as empresas, as organizações, os órgãos públicos e a economia em geral é o roubo de propriedade intelectual. Hoje, os desenvolvedores de malware combinam vulnerabilidades da Web, de hospedagem e de rede com spam, rootkits (ameaça invisível que se esconde dentro de um software autorizado no sistema operacional de um computador), spyware (programas espiões), worms (programa de computador que pode se reproduzir e enviar cópias de si mesmo para outros computadores em uma rede) e outros meios de ataque. O malware também pode ser distribuído indiretamente por redes de computadores que foram corrompidas por um cibercriminoso – conhecidas como “botnets” ou rede de robôs – que reúnem uma série de computadores infectados conectados à Internet.


Outro tipo de ataque que tem se expandido rapidamente é conhecido como ameaça avançada persistente (APT). A APT é, essencialmente, um intruso desleal e persistente cuja intenção é “voar abaixo do radar” e explorar e roubar silenciosamente o conteúdo da rede atacada.


Esses ataques são significativos porque são gerenciados por equipes bem coordenadas e organizadas que conseguem retirar bilhões de dólares em propriedade intelectual de empresas líderes mundiais dos setores de Tecnologia da Informação, Defesa e Energia – setores estratégicos e essenciais para o crescimento econômico e que estão sob a segurança nacional de qualquer país.

Esses ataques discretos são, muitas vezes, mais perigosos que as incursões explícitas, porque são um tipo de espionagem virtual que dá acesso silencioso e constante a informações institucionais protegidas. E o alcance dessas APTs não é limitado, pois elas podem afetar qualquer empresa, órgão do governo ou nação, independentemente do setor, da região geográfica ou do porte.


Um levantamento realizado em 2010 revelou que 60% das organizações relataram uma “perda crônica e recorrente” de informações confidenciais. O custo médio de uma violação de dados atingiu US$ 7,2 milhões em 2010 e custou às empresas US$ 214 por registro de dados comprometido, de acordo com o Instituto Ponemon, nos Estados Unidos. Esse é apenas o custo da reação interna a uma violação de dados.

Se a propriedade intelectual de uma empresa for roubada, esse roubo pode dizimar uma organização.


O risco para os sistemas e as infraestruturas críticas


Como os políticos e governos de diferentes localidades começaram a reconhecer, um ciberataque ou uma série de ciberataques às infraestruturas críticas do país poderia ser algo devastador para o nosso modo de vida. Vejamos a rede de energia elétrica, a qual é de longe a mais vulnerável das infraestruturas críticas.


Quase todos os aspectos da população mundial dependem da energia elétrica – desde a produção de bens até o salvamento de vidas, da defesa do país à realização de operações bancárias e comerciais por meio eletrônico, de simples comunicações à alimentação das nossas famílias de maneira segura. No entanto, os sistemas utilizados para gerenciar nossa eletricidade (sistemas SCADA – Supervisory Control and Data Acquisition ou Controle de Supervisão e Aquisição de Dados) são obsoletos, funcionam em sistemas operacionais disponíveis no mercado e seu projeto mudou pouco desde sua introdução no mercado, décadas atrás.

Esses sistemas nunca foram projetados nem construídos de forma segura e certamente não foram feitos para se conectarem à Internet. Atualmente, descobrimos que muitas empresas de energia elétrica ainda usam senhas predefinidas fornecidas pelos fornecedores porque facilitam o acesso em momentos de crise ou para manutenção e reparos.


O que acontece quando ocorrem várias falhas ou manipulações de sistema simultaneamente na rede elétrica? Os especialistas do setor reconhecem que a rede não está equipada, atualmente, para lidar com essa situação. Embora os especialistas afirmem que as chances de um acontecimento natural ou um ataque físico que leve a essa situação sejam bastante reduzidas, eles não estão preparados para dizer o mesmo em relação aos ciberataques – a ameaça que, hoje, é a mais capacitada para dar origem a esse tipo de falha de energia elétrica.


Embora muitos desses setores essenciais (Finanças, Minas e Energia, Varejo, entre outros) tenham sistemas de emergência que lhes permitam manter as operações durante uma falta de energia, esses sistemas de emergência são projetados para operarem temporariamente, não a longo prazo.


Segurança no projeto
Acrescentar recursos de segurança a sistemas depois que eles foram desenvolvidos é uma batalha perdida. Lembram-se do teto solar em veículos, na década de 80? A única maneira de conseguir um teto solar era instalá-lo depois da compra do carro. Os fabricantes não ofereciam esse acessório nos veículos novos. Assim, muitos tetos solares apresentavam vazamentos. Atualmente, todo fabricante oferece teto solar como opcional nos carros novos e não houve mais vazamentos!


Com a segurança da informação acontece o mesmo: a proteção deve vir incorporada nos equipamentos, nos sistemas e nas redes desde o início do processo de desenvolvimento. A segurança deve ser intrínseca aos processos de pensamento de uma organização, aos seus processos de negócios e também aos de criação, desenvolvimento e fabricação. Ou seja, deve ser incorporada a um elemento de produto ou de rede de modo a se tornar parte integrante do funcionamento do produto ou do elemento. Essa abordagem não só é mais eficaz como também é menos incômoda e mais econômica do que tentar proteger sistemas cuja segurança é intrinsecamente baixa.


Recomendações – setor público


Dado o nível de ameaça à segurança da informação, os governos têm um interesse legítimo em assegurar que seus países estejam protegidos contra ciberataques. A primeira ordem deve ser que o governo proteja completamente suas próprias instituições. Os governos também têm a obrigação de trabalhar com empresas e cidadãos para elevar o nível de segurança no trabalho e nas residências. Adotar incentivos positivos, em vez de negativos – como as exigências e normas do Poder Público – é a maneira mais eficaz de promover níveis mais elevados de confiança e cooperação real entre o setor privado e o governo, de modo que as empresas privadas comprometam-se plenamente – clientes e fornecedores de produtos e serviços de TI – com os princípios e a implementação da segurança no projeto, para ajudar a tornar seus países mais seguros no futuro.


Conclusão


O desafio da segurança da informação enfrentado pelos países é um assunto sério que exige uma evolução na maneira como os setores público e privado colaboram entre si. Cada setor tem seu próprio conjunto de recursos básicos. Apenas o governo pode implementar o complexo conjunto de reações organizacionais e políticas necessárias para combater a crescente ameaça à segurança da informação. As principais empresas de tecnologia da informação e seus clientes estão em posição ideal para agir como sistemas de alerta prévio, capazes de identificar e ajudar a enfrentar os ataques à segurança da informação.

Especialmente as empresas de tecnologia da informação voltadas à segurança têm os recursos e os incentivos econômicos para continuar inventando, inovando e desenvolvendo as tecnologias e soluções necessárias para colocar-nos à frente dos sofisticados atacantes virtuais.


Os setores público e privado mundiais têm feito progressos importantes para enfrentar o desafio da segurança. Ao trabalharem juntos para que os modelos de colaboração evoluam cada vez mais, será possível alcançar êxito na proteção dos países contra a ameaça dos ciberataques.

Stuart McClure, diretor mundial de tecnologia (CTO – Chief Technology Officer) da McAfee

Tuesday, 5 June 2012

Lá vem a Iso 22301 substituindo a BS 25999

Já é avisado de maneira informal, desde o segundo semestre de 2011, que a BS 25999 está com os dias contados.

A norma desenvolvida pelo British Standard Institute, tradicional em pré-desenvolver as bases das normas internacionais ISO, chegou ao seu ponto máximo, mesmo com uma aceitação ainda baixa. A transição de uma norma regional para uma mundial, como aconteceu com a ISO 27001, em 2005, que substituiu a norma BS 7799-2, é normal. A principal vantagem de se tornar uma ISO é a aceitação mundial ainda mais forte e o respaldo.


Quais são as principais mudanças trazidas pela ISO 22301 em relação à BS 25999-2?


Com base na versão preliminar publicada em fevereiro de 2011, no site BSi (Draft Review). O título da ISO 22301 será ISO 22301 Segurança Social – Sistemas de gestão de continuidade de negócios – Requisitos. Embora “Segurança Social” possa soar um pouco estranho em relação à continuidade de negócios, eis a sua definição de acordo com a ISO: “… normalização no domínio da segurança social, com a finalidade de aumentar os recursos de gestão de crises e continuidade de negócios, ou seja, por meio do aprimoramento da interoperabilidade técnica, humana, organizacional e funcional, bem como da conscientização situacional entre todas as partes interessadas.”

Ou seja, continuidade é muito mais do que TI, como menciono há muito tempo em meu blog e site. As questões de proteção a marcas, respeito à sociedade, acionistas, e questões ambientais são fundamentais para a Gestão de Continuidade de Negócios. Bom, que a ISO também entende dessa forma.


Alguns detalhes:


A base conceitual é a mesma, e muita coisa como Política de Continuidade, Análises de Riscos e outros, são considerados Business Continuity Options. O BIA recebe atenção especial e será muito reforçado e enfatizado em várias partes para que sua precisão seja ainda maior.

Muitas empresas ainda subestimam esta fase ou decidem de forma muito subjetiva, o que representa uma possível falha para toda a GCN. O conteúdo de gestão da BS 25999-2 passa para a nova norma, assim como acontece na ISO 9001, ISO 14001 e ISO 27001. Isto será apresentado como complemento. O modelo PDCA (Plan-Do-Check-Act ou Planejar-Fazer-Verificar-Agir) é confuso e gera dúvidas, espero que na última versão isto seja corrigido, pois acho que complicará a vida dos gestores de continuidade de negócios.


A ISO 22301 enfatizará a definição dos objetivos estratégicos, desempenho e métricas. Portanto, em minha opinião, reforça a ideia de que a Gestão de Continuidade de Negócios é um Domínio de Gestão de Riscos Estratégicos. Ela define claramente o que é esperado em termos de gestão e resume essas expectativas em uma única seção. (similar a COBIT e outras referências de apoio a Governança Corporativa e de TI). A ISO 22301 vai exigir/recomendar um planejamento e preparação muito mais cuidadoso dos recursos necessários, para garantir a continuidade dos negócios. Ou seja, a certificação será muito mais rígida.
Conclusão:


O que era uma boa referência conceitual, influenciada desde 2005 por DRI, BCI e BSI, traduzindo uma expectativa de mais de 10 anos de profissionais de continuidade de negócios de todo o mundo, através da norma BS 25.999-1 e BS 25.999-2, ficará ainda melhor.

Creio que a norma ISO 22.301 reflete parte do momento de amadurecimento do mercado mundial em relação ao tema GESTÃO DE RISCO ESTRATÉGICO e GRC. É preciso ter mais normas internacionais complementando este pacote. Temos a ISO 38500 de Governança de TIC, a ISO 27001 de Gestão de Segurança da Informação, a ISO 14001 de Gestão Ambiental, ISO 26001 de Responsabilidade Social Corporativa, ISO 31.000 de Gestão de Riscos, e agora a ISO 22.301 para Gestão de Continuidade de Negócios. Todas são complementares e congruentes. Pode-se usá-las em separado ou em sinergia para otimização de custos.


Fique atento também a toda a família e:
ISO/TR 22312:2011
Societal security — Technological capabilities
ISO 22320:2011
Societal security — Emergency management — Requirements for incident response
ISO/PAS 22399:2007
Societal security – Guideline for incident preparedness and operational continuity management

Jeferson D’Addario é Sócio-Diretor da DARYUS Consultoria

Monday, 4 June 2012

Coleta de dados pelo Google viola a privacidade, dizem os reguladores

Após meses de negociação, Johannes Caspar, uma autoridade alemã de proteção de dados, forçou o Google a lhe mostrar exatamente o que seus carros Street View vinham coletando de potencialmente milhões de seus conterrâneos. Pedaços de e-mails, fotos, senhas, mensagens de texto, postagens em sites e redes sociais –todo tipo de comunicação privada na Internet– foram pegos casualmente enquanto os carros especialmente equipados fotografavam as ruas do mundo.


“Foi uma das maiores violações das leis de proteção de dados que já vimos”, lembrou Caspar recentemente sobre a fiscalização por muito tempo buscada, realizada no final de 2010. “Nós ficamos muito bravos.”


O Google pode ser uma das empresas mais bacanas e inteligentes desta ou de qualquer era, mas também incomoda muita gente –concorrentes que argumentam que faz uso injusto de seu tremendo peso, autoridades como Gaspar que dizem que ele ignora as leis locais, defensores da privacidade que pensam que ele pega coisas demais de seus usuários. Nesta semana, os reguladores antitruste europeus deram um ultimato à empresa, para que mude seu modelo de buscas ou enfrente as consequências legais. Os reguladores americanos podem ser os próximos.


O ataque antitruste onde há muita coisa em jogo, que ocorrerá a portas fechadas em Bruxelas, poderá ser o início de tempos difíceis para o Google. Um caso semelhante nos Estados Unidos, nos anos 90, prenunciou a punição à Microsoft, a empresa de tecnologia mais temida da época.


Mas não se deve subestimar o Google. Ele é soberbo em conseguir se livrar de problemas. Basta perguntar a Caspar ou a qualquer outro de seus pares ao redor do mundo, que tentaram culpá-la do que um deles, o ministro das Comunicações australiano, Stephen Conroy, chamou de “provavelmente a maior violação na história da privacidade”.

A coleta de dados secreta do Street View provocou investigações em pelo menos uma dúzia de países, inclusive quatro nos Estados Unidos. Mas o Google ainda precisa dar uma explicação completa para o motivo da informação ter sido coletada e quem na empresa sabia a respeito. Nenhum regulador nos Estados Unidos viu as informações coletadas dos cidadãos americanos pelos carros do Google.


A história de como o Google escapou de uma prestação de contas plena do Street View ilustra não apenas como as empresas de tecnologia deixaram os reguladores para trás, mas também o relacionamento complicado delas com seus clientes que as adoram.
Empresas como Google, Amazon, Facebook e Apple fornecem novas formas de comunicação, aprendizado e entretenimento, mágica de alta tecnologia para as massas. Elas possuem informação bruta de centenas de milhões de vidas –e-mails íntimos, fotos reveladoras, buscas por ajuda, amor ou fuga.


As pessoas entregam esta informação de bom grado, às vezes avidamente. Mas há um preço: a perda de controle, ou até mesmo de conhecimento, do destino dessa informação pessoal e como está sendo remoldada em uma identidade online, que pode lembrar quem você realmente é ou não. As leis de privacidade e estatutos de interceptação de comunicação são de pouca ajuda, porque não acompanharam a velocidade vertiginosa do progresso tecnológico.

Estrelas na tomada do Alemão, blindados da Marinha voltam às ruas na Rio+20

blindados-marinha

Empresas e cidadãos devem participar da regulamentação da internet, dizem especialistas

A regulamentação da internet é um processo complicado e deve envolver, ao lado de órgãos do governo, a sociedade civil e também o setor privado. Foi o que concluiu o painel de Cidadania Corporativa das TICs do Human Rights and Technology Conference, evento que aconteceu esta semana no Rio de Janeiro.

"Mais de 90% do acesso a internet está concentrado em empresas privadas, o que não é necessariamente algo ruim, mas isso levanta importantes questões a serem consideradas", ressaltou o presidente da Derechos Digitales, Claudio Ruiz Gallardo. Como a mediação da comunicação online é muitas vezes feita por uma empresa, seja pelo provedor de acesso ou por uma rede social, por exemplo, Gallardo reforça que não se trata apenas de um ambiente de livre expressão, mas também um ambiente de negócio.

De acordo com o diretor do departamento de Direitos Humanos do Ministério de Relações Exteriores da Suíça, Johan Hallenborg, a realidade do país europeu ilustra bem esse exemplo. "Nós contribuímos para o diálogo e para a internet como um ambiente de livre expressão.

Temos uma meta ambiciosa de elevar de 50% para 90% a proporção da população com banda larga doméstica de, no mínimo, 100 Mbps de velocidade", explica o executivo. Ele evidencia que todo esse processo é permeado por regulamentações que criam um ecossistema propício ao qual as companhias devem aderir, mas não é imposto. "O Estado não vê a web como um direito legal, como acontece em lugares como a Finlândia, por exemplo", completa.

O subchefe de assuntos jurídicos da Casa Civil, Ivo Correa, mencionou a necessidade de se equilibrar a responsabilidade judicial sobre conteúdos online entre os provedores e os autores do conteúdo, citando exemplos de pedidos de remoção de links por veiculação de material ofensivo.

"No caso brasileiro, uma pessoa pode pedir ao provedor a retirada do material, mas caso a companhia considere o pedido improcedente, pode mantê-lo no ar até decisão judicial. Isso evita a censura prévia", exemplifica. Para ele, a regulação que realmente auxilia empresas e cidadãos a terem uma web livre se resume na transparência e na clareza, especialmente ao usuário.

Para o executivo do Tumblr, Andrew McLaughlin, essa é a prova de que órgãos reguladores internacionais, como a União Internacional das Telecomunicações (ITU), não funcioncionam. "A ITU está quebrada porque trabalha de governo para governo, deveria ser extinta, não é assim que as coisas funcionam mais", dispara.

Todos os palestrantes concordam na participação mais ativa de países europeus e latino-americanos em tentativas de trazer propostas de regulamentação, como a Global Network Initiative (GNI), organização global multi-stakeholder dos agentes da internet para pressionar a criação de leis domésticas para o setor de TICs.

Como grande parte das companhias e envolvidos com esse setor são dos Estados Unidos, um mercado mais maduro em inclusão digital, acabam tendo forte influência dentro da instituição."Sou fã da GNI, mas como latino-americano, ainda a vejo como um fórum norte-americano", revela Correa. Para ele, é o momento ideal de envolvimento do sul do continente e de países africanos se envolverem com a questão.

Friday, 1 June 2012

ONG diz que países autoritários querem ITU como órgão regulador da internet

A Access Now, organização não governamental internacional de defesa dos direitos humanos na internet, iniciou uma petição online contra a ampliação do poder da União Internacional de Telecomunicações (ITU), agência da Organização das Nações Unidas (ONU) que trata de assuntos relacionados com as tecnologias de informação e comunicações (TICs). Além de abaixo-assinado online, a ONG pede manifestações nas redes sociais contra a expansão dos domínios do órgão.

O diretor-executivo da Access Now, Brett Solomon, explica que existe um movimento liderado por países como China e Rússia para promover a ITU ao status de órgão regulador mundial da internet. Ele ressalta que os interesses da entidade, porém, não representam democraticamente todo o ecossistema do mundo conectado. "Quando saiu do poder de universidades e militares, a internet se estabeleceu como um meio de comunicação da sociedade civil, empresas e governos. Não é de se espantar esses dois países, com sistemas antidemocráticos, promoverem a ITU, pois é um órgão apenas governamental", defende Solomon.

Ele explica que a regulamentação proposta por essa frente pode contribuir para a limitação da liberdade na internet e cita a mobilização social em todo o mundo contra as leis americanas antipirataria Stop Online Piracy Act (SOPA) e Protect IP Act (PIPA) como exemplos de atuação de internautas para barrar as tentativas de controlar a rede mundial. No caso dessas leis, diz Solomon, a comunidade web se organizou, pois viu a ameaça de grandes empresas, com modelos de negócios anteriores à era digital, controlar o que cada usuário faz na rede.

Na petição atual, ele diz tratar-se da defesa da regulamentação regional da internet, ainda em discussão mesmo nos países mais democráticos, com participação de todas as frentes que atuam online. "A ITU dá a cada país um voto, por isso é importante um alto nível de engajamento para impedir que isso aconteça", explica o executivo. Solomon está no Rio de Janeiro participando do Humans Rights and Tech Conference.

O fundador da Humans Rights Foundation, Thor Halvorssen, diz que até mesmo as empresas do setor de tecnologia, que nasceram em meio ao pensamento inovador do Vale do Silício, na Califórnia, não aplicam a abertura e a transparência em alguns negócios. Foi o que defendeu fundador da Humans Rights Foundation, ONG internacional sobre o tema.

Durante a abertura do evento, Halvorssen citou diversas empresas que forneceram serviços ou produtos para governos totalitários. "A Cisco esteve envolvida na prestação de serviços para a China e o Yahoo revelou e-mails de dissidentes para o governo daquele país.

Entre as europeias, a Ericsson forneceu mecanismos de espionagem a civis para autoridades na Bielorrúsia e a Nokia compactuou com o governo do Irã com uma tecnologia telefônica para localização de jornalistas e ativistas", disparou o dirigente.

Ele defende a punição para essas companhias, um contraponto liderado pelas outras duas frentes que atuam na web - população e governo. Em todos esses casos, as empresas alegaram que não poderiam descumprir as legislações dos países em que atuavam.