Monday 30 April 2012

Oi é a operadora mais barata no pré e no pós-pago, segundo índice Pricez

Nesta terça-feira, 24, a consultoria Pricez e o portal Teleco lançaram um índice com os melhores preços das operadoras para o consumidor brasileiro. A ideia é criar um indicador que avalie e atualize mensalmente e de forma precisa os preços e promoções que cada operadora celular oferece à sua base de clientes. Para isso, foi criado um canal online onde o cliente poderá buscar a oferta mais adequada, com melhor custo/benefício e maior economia para o seu perfil de consumo específico (www.pricez.com.br)

Na primeira edição do índice, que premiará as operadoras com as melhores ofertas, a Oi se destacou em quatro dos seis perfis de uso no pré e no pós-pago. A empresa foi a mais barata nos perfis de uso de médio e alto consumo (pós) e nas recargas de R$ 20 e R$ 30.

Pós-pago

A Oi foi considerada a “operadora mais barata do Brasil para clientes com um consumo completo”, ou seja, usuários que apresentam um perfil de médio (cerca de R$ 129 mensais) e alto consumo (R$ 308 mensais).  “São clientes que pagam franquia, utilizam Internet no celular, SMS ilimitado e outros serviços”, diz Eduardo Tude, presidente da Teleco. No “alto consumo”, a Oi chega a ser até 30% mais ‘em conta’ que as demais operadoras (Vivo, R$ 441; Claro, R$ 396; e Tim, R$ 439 mensais).

No médio consumo, a Oi novamente aparece na liderança, com a oferta mais barata: R$ 129 de gasto mensal estimado, 50% menor que a TIM, por exemplo, que custa R$ 248.

No perfil “baixo consumo”, a Claro é a mais barata e custa R$ 42 por mês, 40% a menos que a média.

Pré-pago

Melhor uso da recarga de R$ 10 – A TIM lidera em todo o Brasil, excluindo o Centro-Oeste, Acre e Rondônia, com um bônus médio de 80 minutos, aproximadamente dez vezes o volume de minutos das outras operadoras.
No Centro-Oeste, Acre e Rondônia a Claro é a melhor operadora, com o plano “Fala mais Brasil com bônus”, oferecendo aproximadamente 100 minutos de bônus.

Melhor uso da recarga de R$ 20 – A Vivo, com a promoção “Recarregue e Ganhe”, foi a operadora que apresentou o melhor valor de recarga em quatro estados do Nordeste, além da capital do Ceará e da Bahia. O bônus médio de 833 minutos é quase o dobro do oferecido pela líder de mercado Oi. A Claro é a segunda melhor operadora, oferecendo 600 minutos de bônus, em média.

A Claro lidera a região do leste de Minas Gerais e sul da Bahia, além do estado do Maranhão, com a promoção “Ganhe Sempre”.

Nos principais DDDs de São Paulo (11, 12 e 13) e no Ceará (88) a Oi lidera, mas com a promoção “Recarga em Dobro”. Com isso, oferecendo 15% a mais de bônus que a Claro, segunda colocada.

A Oi lidera 50 DDDs do Brasil com a promoção “Oi Cartão Ilimitado”, sendo que em todo o estado do Rio Grande do Sul a aplicabilidade do bônus é estendida para ligações para telefone fixo.

Melhor uso de recarga de R$ 30 – A Oi possui a melhor oferta, com até 40 vezes mais bônus que as outras operadoras. Enquanto a média da Oi foi de 10 mil minutos, a média da Vivo foi de 676 minutos, da Claro 924 minutos e da TIM, 240 minutos. Por isso, na recarga de R$ 30, a operadora lidera em todo os DDDs.

Pontos importantes

O índice Pricez não se restringe aos preços e também faz um alerta a outros itens que merecem a atenção do consumidor na hora da contratação do serviço:

- SMS ilimtado: Claro e Vivo possuem promoções de SMS ilimitados aplicáveis apenas a SMS on net, ou seja, para a mesma operadora.

- Altas tarifas off net: A TIM possui altas tarifas para chamadas de longa distância off net (R$ 1,91). Esta tarifa chega a ser 2 vezes mais cara que a tarifa da Vivo (R$ 0,99).

- Roaming: Oi e Claro possuem altos custos para clientes que necessitam usar o celular em roaming.

Vantagens e desafios da computação em nuvem

Uma das dúvidas mais recorrentes relacionadas ao mundo da tecnologia é se a adoção da computação em nuvem é vantajosa para os negócios na comparação com o modelo tradicional de gestão tecnológica. A pergunta pode ser simples, mas a resposta exige muitas análises e ponderações para se chegar à opção mais vantajosa a cada organização.

Um dos diferenciais da computação em nuvem está relacionado à escalabilidade e flexibilidade que este modelo permite ao usuário, em razão da oferta de serviços on demand (sob demanda).

Diante da eventual necessidade de ampliação ou redução da estrutura tecnológica, bastam poucos comandos e acertos com o provedor do serviço, que, em geral, dispõe de capacidade extra que pode ser negociada instantaneamente, eventualmente, com um custo baixo. No caso de um aumento da estrutura tecnológica tradicional, seria preciso recorrer à compra de equipamentos, programas e a promoção de ajustes e instalações que demandam tempo, recursos e conhecimento dedicado que podem ser muito onerosos.

Por outro lado, no caso de se pretender reduzir a estrutura tradicional, muitas vezes não há como recuperar investimentos feitos, o que acaba redundando em ociosidade ou subutilização dos recursos disponíveis.

Outro elemento diferencial da estrutura em nuvem relaciona-se aos custos de implantação e de gestão dos recursos tecnológicos. Diante da elasticidade possibilitada, a contratação da computação em nuvem é dirigida para a capacidade e às necessidades que efetivamente a empresa tem. Paga-se estritamente pelo uso específico contratado, ou pelo tempo utilizado dos serviços, o que representa economia diante dos vultosos investimentos feitos na aquisição de equipamentos e servidores muitas vezes superdimensionados, que acabam se tornando ociosos em dados momentos.

Há também vantagens em relação à mobilidade permitida aos gestores e usuários dos sistemas na nuvem, pois, na maioria dos casos, basta uma conexão com a Internet para se ter acesso às redes. É possível perceber, inclusive, alguns ganhos ambientais com a migração para a nuvem, já que se evita a constante troca e atualização de equipamentos e sistemas que sofrem rápida obsolescência e acabam sendo descartados, além de haver economia de energia, pois a quantidade de equipamentos dedicados é menor.

Do mesmo modo, o risco de falhas em equipamentos é menor, devido à arquitetura das redes em nuvem, além de serem minimizadas as ameaças por danos físicos aos equipamentos (como quebra e destruição causadas por fenômenos meteorológicos ou roubos).

A oportunidade que oferece ao pessoal dedicado aos processos de tecnologia acaba sendo outra vantagem da computação em nuvem, pois permite uma melhor utilização desses profissionais das áreas de TI nos processos estratégicos e de gestão.

É evidente que cada empresa necessita avaliar com muito cuidado as eventuais vantagens que terá no caso de adotar a computação em nuvem, especialmente para saber se esse modelo é de fato viável.

Existem três modalidades de computação em nuvem: SAAS - Software as a Service (software como serviço), indicado aos que necessitam apenas de soluções em programas e aplicativos tecnológicos; PAAS - Plataform as a Service (plataforma como serviço), que envolve um ambiente virtual para criação, hospedagem e controle de softwares e bancos de dados; e IAAS - Infrastructure as a Service (infraestrutura como serviço), que é a mais completa modalidade, envolvendo servidores, sistemas de rede de armazenagem, softwares e todo o ambiente tecnológico dedicado. Tudo isso pode estar disponível em ambientes conhecidos como nuvem pública, nuvem privada ou nuvem híbrida (que integra as duas anteriores).

Escolher a modalidade de serviço e o ambiente dedicado adequados é essencial para o dimensionamento de custos e de riscos envolvidos.

Aliás, este último fator deve ser amplamente ponderado e discutido quando se opta pela computação em nuvem, pois há algumas ameaças que são características: a partir da contração de um provedor externo, a empresa acaba não tendo mais o controle completo sobre a confidencialidade de suas informações e dados; há riscos ligados aos controles de acessibilidade às redes organizacionais, já que o acesso se dá via Internet; além de haver problemas relacionados à eventual falta de conexão com a Internet, o que impede qualquer tido de consulta de dados na nuvem.

Ao final, o grande desafio para os gestores é mensurar suas próprias necessidades, ponderar vantagens e riscos, determinar a melhor solução a ser adotada e optar pela computação em nuvem ou pelo tradicional sistema de Centros de Processamento de Dados in company.

Após todas as ponderações, e diante das inúmeras oportunidades que atualmente representa a computação em nuvem com os constantes aperfeiçoamentos tecnológicos na área de segurança da informação, é provável que nos próximos anos uma parte relevante de empresas tenderá a optar por esta nova solução para o provimento de recursos tecnológicos.

Carlos Gatti, sócio-líder da prática de Advisory e da área de Management Consulting da KPMG no Brasil.

Friday 27 April 2012

BT divulga estudo sobre a nova realidade da segurança móvel

A BT anunciou nesta terça-feira, 24, inovações em seu portfólio de soluções de segurança BT Assure, projetado para que organizações resolvam com mais eficiência uma ampla gama de questões de segurança e protejam o clima de confiança que uma empresa necessita para ter sucesso.

Essas inovações têm como foco os perigos da crescente utilização de dispositivos pessoais em redes corporativas; os riscos da implementação em larga escala de soluções de cloud computing e os desafios do que se conceitua como "big data", ou o enorme volume de dados não estruturados inerentes aos negócios hoje.

Um levantamento exclusivo da BT, entrevistando mais de dois mil usuários e executivos em 11 países, mostra que os riscos para as empresas evoluem de forma rápida demais para serem enfrentados com sucesso por uma segurança puramente reativa. Os resultados da pesquisa – intitulada “Repensando o Risco” – também mostram que o tradicional perímetro de segurança externa das redes corporativas já não existe, e confirma a necessidade de ferramentas específicas para medir, compreender e lidar com uma nova realidade da segurança.

Segundo o relatório, as ameaças à segurança cibernética, a perda acidental ou intencional de dados por funcionários e a crescente utilização de dispositivos pessoais em redes corporativas são os três maiores riscos de segurança percebidos pelos gestores de TI. Em particular, o fenômeno BYOD (Bring Your Own Device) avança significativamente no ambiente corporativo, onde 60% dos funcionários usam dispositivos pessoais para o trabalho, com um nível particularmente elevado em países como China e Índia (92% e 80%, respectivamente).

De acordo com o estudo, 82% das empresas já permitem BYOD ou deverão permitir nos próximos 24 meses. Isso traz novas questões para a segurança: quatro entre dez empresas já sofreram violações de segurança pelo uso, por seus funcionários, de dispositivos não autorizados. Entre as empresas que têm uma política BYOD, a segurança é o fator mais relevante e o maior desafio (74%). É interessante observar que os gerentes seniores e membros dos conselhos de administração são os que mais solicitam a utilização de seus próprios equipamentos, seguidos de perto pelas equipes de TI e usuários avançados de tecnologia.

Nesse contexto, com o objetivo de contribuir para que os profissionais de TI e de segurança (CIOs - Chief Information Officers e CSOs - Chief Security Officers) possam reavaliar os riscos, a BT leva ao mercado uma série de novas soluções que se somam a seu portfólio BT Assure.

• O serviço Assure Secure Web proporciona uma política uniforme de acesso à internet para todos os dispositivos que utilizam acesso remoto, sejam de propriedade da empresa ou de funcionários, com controle centralizado e único, visualização com atualizações imediatas, relatórios globais e controles baseados em funções dos usuários, eliminando a necessidade de lidar individualmente com cada dispositivo.

• O Assure Analytics registra em tempo real as ameaças potenciais e possíveis consequências para a empresa, contribuindo assim para que os profissionais de segurança tomem as decisões mais acertadas para políticas eficazes. Isso é possível graças ao inovador sistema de análise de dados e visualização da BT.

• O Assure Cyber oferece uma abordagem “high touch” e mais centrada no controle das questões de incidentes de segurança e gerenciamento de eventos (SIEM - Security Incident and Event Management), possibilitando análises e relatórios totalmente interativos e personalizados, respostas ágeis aos incidentes e simplificação do treinamento.

• O Mobility Lifecycle Management abrange tanto os dispositivos pertencentes aos empregados como os que pertencem à empresa, com regras de acesso detalhadas, utilização baseada em funções, exclusão remota e atualizações em nuvem. Oferece uma excelente base para o gerenciamento de grandes volumes de dispositivos móveis.

• O Assure eValuator permite que clientes reais ou potenciais verifiquem e comparem o status de sua segurança com padrões corporativos, identificando os pontos que exigem atenção mais urgente. O eValuator examina os três fatores envolvidos na segurança: pessoas, processos e tecnologia. Os resultados oferecem uma análise detalhada de como a empresa está preparada para enfrentar as questões relativas à segurança, ajudando a priorizar gastos e outras atividades.

Jeff Kelly, CEO da BT Global Services, afirma que "as melhores empresas entendem que os negócios são, em última análise, uma relação de confiança. Ecossistemas técnicos podem não atingir os objetivos desejados, afetando a confiança entre as empresas, clientes e colaboradores.

Nossos clientes estão hoje diante de uma nova oportunidade para proativamente levarem a discussão da segurança aos mais altos escalões de suas empresas. Ao privilegiar a inovação e a inteligência, nosso portfólio BT Assurance contribui para que nossos clientes identifiquem, implementem e assegurem proteção onde for necessário, colocando a questão como um ponto central em sua organização, ao invés de abordá-la pontualmente.

A segurança precisa se apoiar em um programa contínuo de investimentos em pessoal qualificado, assim como em infraestrutura e sistemas de gerenciamento de segurança no estado da arte. Este é, definitivamente, o momento de repensar o risco".

Tuesday 24 April 2012

Quatro tendências críticas em TI para a continuidade dos negócios

Em TI, o fracasso não é uma opção. Não surpreendentemente, as organizações tornaram uma prioridade alta desenvolver e implementar planos de negócios confiáveis de forma a garantir que os serviços essenciais de TI estejam sempre disponíveis para os usuários internos e clientes externos.

Mas desenvolvimentos tecnológicos recentes e a tendências, como a virtualização de servidores e desktop, a computação em nuvem, o surgimento de dispositivos móveis no ambiente corporativo e as redes sociais, estão impactando diretamente o modo como as empresas lidam com o Plano de Continuidade de Negócios. Grande parte do impacto é positivo, dizem os especialistas, mas estas tendências também pode criar novos desafios a gestão de segurança da informação e a gestão de riscos.

Vejamos, detalhadamente.

Virtualização

A virtualização está tornando o planejamento da continuidade de negócios mais fácil para os executivos de TI e suas organizações. Se não por outro motivo, porque ajuda a reduzir o número de ativos de TI  da empresa, diz George Muller, vice-presidente de planejamento de vendas e da cadeia de suprimentos da Imperial Sugar Co, do Texas, um dos maiores refinadores e comerciantes de açúcar dos Estados Unidos

"Aqueles que já estão no mundo de TI há alguns anos, como nós, viram a transição dos antigos mainframes para a arquitetura cliente servirdor e desta para a computação em nuvem", diz Muller. "Durante esse tempo a proliferação de PCs e servidores foi selvagem."

Com tantos dispositivos para manter, especialmente servidores físicos no data center, a garantia de uptime dos sistemas tornou-se um desafio muito maior. "Com a virtualização, as empresas reduziram bastante a quantidade de servidores, o que significa que estamos planejando a continuidade do negócio para um número menor de máquinas", diz Muller.

Usando a virtualização de servidores, as empresas podem gerenciar, apoiar e proteger as suas aplicações de forma mais eficaz. Para realizar manutenções, atualizações, patches críticos, etc, basta simplesmente mover as aplicações para fora da área a ser impactada pelas atividades de manutenção. Por isso, muitos chegam a afirmar que a virtualização teve um impacto bem maior sobre recuperação de desastres do que sobre a continuidade do negócio, diz John Morency, do Gartner em Stamford, Connecticut.

"Mas o  que mais organizações estão fazendo agora é ter pessoas trabalhando em casa ou no Starbucks ou na biblioteca, onde quer que desejem", diz ele. "O uso do VDI e outras tecnologias de virtualização na ponta cliente, em conjunto com o uso de VPNs, permite que as pessoas trabalhem fora da companhia, quando necessário, como uma alternativa para o trabalho de recuperação da área.

Por isso, Rachel Dines, analista sênior de infraestrutura e de operações da Forrester Research em Cambridge, Massachusetts, acredita que a virtualização de desktops está tendo um impacto maior sobre a continuidade dos negócios do que a virtualização de servidores. "A virtualização no cliente está tornando a recuperação da força de trabalho possível para muitas empresas que antes não podiam contar com os funcionários trabalhando em casa, em seus laptops", diz Dines.

Por exemplo, em empresas com informações altamente sensíveis - como as dos segmentos de serviços financeiros, seguros ou as agências governamentais - nas quais é preciso evitar os vazamentos de dados a todo custo, a virtualização de desktop permitiu a implementação rápida de imagens de área cliente para hardware heterogêneo em locais seguros para a força de trabalho, diz Dines.

Além disso, as organizações podem implantar máquinas virtuais clientes através da Internet e permitir que os empregados as acessem através de computadores pessoais, em casa. "De qualquer maneira, os usuários são capazes de usar o mesmo ambiente que eles estão acostumados em seu local de trabalho, o que significa que serão mais produtivos durante desastres", diz Dines.

Cloud computing

Muitos dos clientes do Gartner estão cada vez mais utilizando o software-como-serviço (SaaS) para apoiar os processos de negócios, diz Morency.

"Com o uso de SaaS voltado para aplicações garantir a alta disponibilidade é uma tarefa mais simples, mesmo diante de interrupções maiores", diz Morency. "Você tem um conjunto de aplicativos entregues a partir da nuvem".

Mas isso também impõe responsabilidades adicionais em TI, tanto quanto ser capaz de intermediar os serviços ou fazer a triagem de gerenciamento adicional quando necessário, acrescenta Morency .

O consumo de recursos (por exemplo, CPU, memória, armazenamento, largura de banda) para estes ambientes são monitorados permanentemente por meio de painéis de instrumentos, alertas e relatórios de métricas que detalham tendências como o consumo diário, semanal, mensal e trimestral, ajudando no planejamento, determinação e provisionamento da capacidade necessária para a continuidade dos negócios e a recuperação de desastres.

Usando a ferramenta de gerenciamento de nuvem o usuário pode configurar políticas definidas para escalar aplicativos adicionais, e isso o permite manter a continuidade dos negócios de forma mais automatizada, um tipo de provisionamento on-demand.

A Imperial Sugar opera um ambiente de nuvem híbrida, com cerca de 95 por cento de suas aplicações rodando em uma nuvem privada em seu data center e o restante acessado através de uma solução SaaS. A nuvem privada é fornecida por um prestador de serviço de rede e o software no modelo  SaaS é entregue por fornecedores de software em uma base hospedada, diz Muller.

Como o ambiente da nuvem é mantido pelos prestadores de serviços e fornecedores de software, o ônus recai sobre eles para assegurar a continuidade, e que pode ser um benefício, bem como um risco, diz Muller.

"Quando tenho um terceiro que hospeda o ambiente para mim olho para ele como parte do acordo de nível de serviço para que os recursos contratados - pessoal, hardware e infraestrutura no local - para que possam garantir que, se o hardware tiver um problema eles possam continuar provendo meus aplicativos de maneira transparente para os usuários", diz Muller. "Por isso eu tenho um acordo de nível de serviço forte", diz.

Por outro lado, mesmo com um acordo de nível de serviço mantendo o prestador de serviço responsável, não há garantias de que o serviço não será interrompido em algum momento, diz Muller.

Nem todo mundo vê a computação em nuvem influenciando a continuidade dos negócios, hoje.  No entanto, ela deve se tornar um fator complicador significativo no futuro. A medida que mais organizações terceirizem mais serviços para a nuvem, ele passará a ocupar o gerente de continuidade de negócios, que terá de auditar os planos de recuperação de muitos fornecedores diferentes."

Além disso, durante uma falha ou testes, a recuperação terá de ser coordenada em vários sites diferentes, executados por fornecedores diferentes. "No longo prazo, nuvem fará com que a continuidade do negócio muito mais complicado", diz Rachel Dines, da Forrester.

Dispositivos móveis no ambiente corporativo

A proliferação de dispositivos móveis no mercado de trabalho é um benefício para as estratégias de continuidade de negócios, pois dá mais flexibilidade para opções de recuperação da força de trabalho, segundo Dines.

"Comparado aos dias em que os funcionários só tinham desktops e laptops, a capacidade de se manter produtivo, sem acesso a um computador através de tablets e smartphones é uma vantagem significativa", diz ela. "Além disso, significa que os funcionários devem se comunicar mais facilmente durante um desastre."

Fornecedores de software de PCN estão colocando mais ênfase em garantir que o software e as informações necessárias para a continuidade de negócios possam ser acessíveis através de dispositivos móveis. Isso inclui informações como o status atual de recuperação, os locais nos quais os funcionários devem circular,  as aplicações e serviços que poderão acessar e onde eles se conectam para obter as atualizações mais recentes.

Isso não é só para teletrabalhadores, mas para os trabalhadores em geral e o pessoal da área de vendas que precisam de formas de acesso a informações mais relevantes para eles, através do dispositivo de sua escolha.

Muitos funcionários da Imperial Sugar usam smartphones, tablets e outros dispositivos para o trabalho, segundo Muller, e estes dispositivos provavelmente são úteis a partir de uma perspectiva de continuidade de negócios porque os trabalhadores seriam capazes de usá-los para realizar transações comerciais e se comunicar com colegas e clientes de vários locais remotos durante a ocorrência de algum desastre.

A questão chave é assegurar que estes dispositivos continuem a ter acesso ao software e aos serviços que permitem a ele funcionar em ótimas condições para aplicações como envio de mensagens e colaboração. "Se eu tenho um BlackBerry Enterprise Server só preciso ter a certeza de que é algo que eu possa trazer para uma continuidade de negócios durante a recuperação de desastre" se for necessário, diz Muller.

A proliferação de dispositivos móveis torna mais fácil para as pessoas ficarem conectadas ", e, certamente, torna mais fácil essa conexão em uma situação de recuperação de negócios", diz Muller. "Um PC sem fio pode fazer a mesma coisa, mas um dispositivo móvel é menor e mais fácil de transportar e custa menos. Você pode fazer praticamente qualquer coisa em um dispositivo móvel."

As redes sociais

Na opinião da Forrester, como as empresas buscam abordagens rápidas e eficazes de comunicação com os principais interessados ​​em momentos de crise, devem considerar fortemente o uso de  tecnologias sociais como Twitter, Facebook e Skype como componentes críticos de seu plano de resposta.

Já o Gartner,  em pesquisa divulgada em janeiro de 2012, observa que a mídia social "mantém a promessa de transformar a gestão de continuidade de negócios da empresa, especialmente o gerenciamento de crises e incidentes e as práticas de comunicação . "

A mídia social é utilizada por mais de 80 por cento da população mundial, diz o Gartner, e as empresas não podem se dar ao luxo de ignorá-las como ferramentas de comunicação de crise. Mas o uso eficaz de um novo canal de comunicação requer planejamento e prática.

Mas tentar alavancar o uso das mídias sociais pela primeira vez durante uma crise pode causar mais mal do que bem.

Entre os principais passos recomendados estão o mapeamento de quais plataformas sociais já são usadas por funcionários, clientes e outras partes interessadas e o uso dessas plataformas durante os esforços de gerenciamento de incidentes e crises; o uso das mídias sociais não só para comunicações durante um desastre, mas para reunir informações e apoio de recursos externos que podem ajudar a garantir a resiliência dos negócios em curso. Os profissionais de gestão de continuidade dos negócios devem começar a avaliação das oportunidades de mídia social imediatamente - e também os riscos.

"As redes sociais são uma bênção e uma maldição" para a continuidade dos negócios, diz Dines. "Eles têm a vantagem de ser um canal de comunicação adicional para entrar em contato com os funcionários durante uma interrupção dos negócios. No entanto, podem ser uma dor de cabeça para comunicações de crise e de relações públicas, na tentativa de controlar possíveis danos à reputação e à propagação de boatos . "

Fonte: por Bob Violino para Infoworld EUA via CIO Brasil

Google Drive é oficialmente lançado com 5GB gratuitos para armazenamento

O Google acaba de lançar oficialmente seu novo serviço de armazenamento de arquivos em nuvem, oGoogle Drive.
Os usuários começarão a utilizar o serviço com os 5GB de espaço paraarmazenamento de forma gratuita. Também há possibilidade de expansão da capacidade para até 100GB, mas o usuário terá que colocar a mão no bolso e pagar pelo espaço adicional.


Mesmo com integração total com o Docs, também do Google, a empresa caracteriza o novo serviço como a "evolução" da ferramenta de documentos, já que o Drive trabalhará em conjunto com o Docs, na mesma página.

No momento, serão lançados aplicativos para PC, Mac e Android. Já os usuários de iOS ainda precisarão esperar.
O Drive também terá integração total com o Gmail, serviço de e-mails do Google. Não será mais preciso enviar os arquivos em anexo, já que o Drive dá a possibilidade de o usuário enviar links através do e-mail.


As ferramentas de busca do serviço também ganharam atenção redobrada. Será possível fazer pesquisas por tipo, dono e até atividade do documento. Haverá reconhecimento de conteúdo usando a tecnologia OCR, que "lê" imagens: por exemplo, se você baixar uma imagem escaneada de um recorte de jornal velho, poderá pesquisá-la usando uma das palavras citadas no artigo.
O Google Drive também terá suporte para mais de 30 tipos de documentos, como vídeos em HD, arquivos do Photoshop e outros. Além disso, também terá 99,9% de uptime, ou seja, garantia de quase todo o tempo em atividade.


Para acessar o Google Drive e começar a utilizar o serviço, basta clicar aqui. Veja abaixo o vídeo de lançamento da ferramenta:

Friday 20 April 2012

Data Center do governo dos EUA coleta dados de tudo o que você faz na internet

Na série o Exterminador do Futuro, a maior ameaça não eram os poderosos ciborgues enviados para matar John Connor, mas uma entidade maior, que controlava uma rede de robôs e alimentava uma guerra contra os humanos: a Skynet. No filme, o software criado no fim do século XX é capaz de controlar todo o sistema de defesa dos EUA que, eventualmente, se rebelou contra seus criadores e usa todo o conhecimento e estrutura fornecidos pelos americanos para tentar aniquilar a espécie.

Agora, especialistas do mundo todo se perguntam se uma Skynet do mundo real está sendo criada no meio do Deserto de Utah. É que a NSA (Agência Nacional de Segurança) dos Estados Unidos está erguendo uma enorme estrutura por lá, que promete coletar e armazenar dados de organizações, governos e até de você, um cidadão comum.

Que dados? Todos. Compras feitas com cartão, ligações, emails, sites acessados, livros que você está lendo... ou seja: tudo o que você faz, compra e consome. Com novas tecnologias e técnicas avançadas de criptografia, o Utah Data Center poderá acessar informações de qualquer um ou qualquer coisa que tenha acesso à comunicação via satélite.

Guerra ao terrorismo

O UDC é parte do programa “Total Information Awarenewss”, criado no governo Bush, que desde o ataque ao World Trade Center já gastou dezenas de milhões de dólares em medidas contra o terrorismo. Só este enorme centro no meio do deserto irá custar 2 bilhões de dólares.

O preço astronômico se deve ao fato de que o UDC será uma estrutura autônoma, o que quer dizer que ele será capaz de gerar sua própria eletricidade, com uma subestação localizada na estrutura. Além disso, ele poderá armazenar água e alimentos suficientes para manter sua equipe por até três dias.

Todos os equipamentos e serviços que existirão por lá fazem com que o tamanho necessário para que o edifício cumpra seus propósitos seja gigantesco: mais de 65mil metros quadrados, que deverão estar construídos e devidamente ocupados até setembro de 2013.

Para você ter uma ideia do tipo de máquina que o UCD irá abrigar, a meta é que elas sejam capazes de armazenar dados em Yottabytes (10 à 24 potência) – uma unidade tão grande que ainda não nomeamos o que vem depois dela.

Toda essa capacidade é necessária porque, além de receber, analisar e armazenar dados de toda a web, é esperado que o UDC possa fazer isso em uma escala muito maior do que se ele estivesse funcionando hoje, já que a quantidade de internautas irá crescer muito nos próximos anos. Segundo um relatório da Cisco, por exemplo, em 2015 teremos quatro vezes mais pessoas com acesso à internet do que em 2010.

Para “processar” toda essa informação, uma empresa chamada Narus criou um software capaz de examinar 10 gigabytes por segundo e, então, copiar automaticamente qualquer comunicação suspeita.

Você será investigado – saiba como

Depois que o centro coleta, analisa e separa todos os dados, o “Data Mining” começa – um conjunto de programas juntará o que a NSA julga interessante automaticamente e criará padrões, que podem prever como você se comporta. Parece absurdo? Saiba que o Data Mining já está sendo usado por agências de pesquisa hoje, embora com uma quantidade bem menor de dados.

Por exemplo, a PUCRJ descobriu recentemente, usando a técnica, que mulheres que trabalhavam, quando aprovadas em seu vestibular com notas boas, dificilmente fariam a matrícula. Isso porque provavelmente passaram em uma universidade pública e o fato de elas trabalharem indica que terão preferência pela educação gratuita.

O exemplo é simples, mas dá para imaginar que tipo de padrões podem ser traçados com eles quando você coleta dados de um país inteiro – ou do mundo inteiro. O que a maioria das mulheres compra quando está de TPM? A NSA vai saber através de suas contas. Onde os muçulmanos de uma cidade vão estar na quinta feira? A NSA tem todos os emails e recibos de estacionamento para traçar um padrão de comportamento. Para quem você vai ligar para contar todas as fofocas da balada do último sábado? A NSA sabe – e também vai ficar por dentro de todos os bafos.

De acordo com o escritório de Relações Públicas da NSA, a organização não irá espionar a vida de americanos civis – quanto mais de civis do resto do mundo. E, em uma sessão no congresso americano sobre o assunto, realizada em março, o diretor geral da NSA, Keith Alexander, confirmou a declaração dizendo que não há interesse em fuçar a vida de gente comum.

“Apenas nos preocupamos com a cybersegurança da população”, declarou. Resta saber o que será considerado uma ameaça à segurança da população.

Cinco dicas para maior segurança em ambientes virtuais

A área de TI evolui rapidamente, e não há dúvidas de que o futuro dos datacenters incluirá cada vez mais a virtualização. As possíveis vantagens oferecidas por esta tecnologia são impressionantes, desde economia operacional e de capital até agilidade na implantação de endpoints, aumento na velocidade e agilidade da TI em geral. No entanto, os riscos existem.

Algumas empresas hesitam em adotar a virtualização ou usá-la amplamente por conta das preocupações relacionadas com a segurança dos sistemas e dados corporativos.

Enquanto a virtualização lida com ferramentas não físicas, as ameaças à segurança são muito reais, com hackers procurando brechas de segurança em qualquer nova tecnologia. Para manter as informações corporativas seguras no ambiente virtual, as organizações precisaram ter uma abordagem integrada e proteger as informações com soluções de segurança e procedimentos que evitam a violação dos dados.


Tendo em vista esse cenário, a Symantec apresenta as melhores práticas para ter a virtualização implementada com sucesso e segurança na sua organização.

Agrupe aplicações por configuração: Em máquinas físicas, um servidor pode hospedar qualquer quantidade de diferentes aplicações, cada uma com sua própria configuração. Isso gera dor de cabeça quando se trata de gerenciamento de políticas. A vantagem oferecida por uma infraestrutura virtual é a capacidade de agrupar dinamicamente todas essas aplicações para implantar facilmente as políticas de segurança.

Utilize sistemas de segurança baseados em reputação: As soluções tradicionais de segurança fazem verificações frequentes, arquivo por arquivo, o que pode exigir muitos recursos e ser ineficaz em termos de proteção contra novas ameaças. No entanto, os sistemas de segurança baseados em reputação analisam informações de uso anônimo de milhões de usuários em todo o mundo para identificar arquivos suspeitos. Como precisa analisar menos arquivos com menor frequência, o uso de recursos nas máquinas é menor.

Implemente gerenciamento centralizado das máquinas virtuais: O gerenciamento de endpoints tradicionais pode consumir tempo e estar sujeito a riscos de segurança. Um atraso na gestão de patches ou na atualização das configurações de segurança em diversas máquinas pode resultar na diferença entre uma infraestrutura segura e a violação de dados. Explore os benefícios do gerenciamento de endpoints virtualizados por meio da implementação de práticas e políticas de segurança em todos os sistemas para maximizar a proteção dos dados corporativos.

Agrupe as máquinas para controlar o acesso dos usuários: Uma abordagem baseada em hosts permite que as organizações separem grupos de máquinas virtuais para proteger vários componentes do sistema, como sistemas de arquivos, aplicações e chaves de registro. Isso permite que a organização restrinja mais facilmente o acesso a redes privilegiadas e determine o nível de acesso para os usuários, incluindo os administradores.

Monitore a rede: Uma das maiores vantagens da virtualização e, por vezes, um grande desafio, é o monitoramento da rede. A capacidade de gerenciar de forma centralizada os sistemas cria possibilidades para o monitoramento simplificado. As organizações devem considerar cuidadosamente as soluções disponíveis no mercado e selecionar aquelas que melhor atendam às necessidades de configuração da nuvem.

Para explorar o enorme potencial da virtualização, é vital criar um plano de segurança abrangente. Ainda que isso possa parecer uma tarefa assustadora, em princípio, é similar a proteger um datacenter tradicional, em que as informações estão protegidas, e não o hardware em si.

Wagner Tadeu, vice presidente da Symantec América Latina.

Como, onde e quanto custa usar Wi-Fi durante os voos.

Em tempos de conectividade total, navegar na internet, ainda que a mais de dez mil metros do solo, é uma demanda cada vez maior entre passageiros de todo o mundo. E depois de consolidado nos Estados Unidos e na Europa, o Wi-Fi a bordo está chegando aos poucos aos viajantes que decolam ou pousam no Brasil. Desde o começo do ano, a Turkish Airlines está implementando o serviço de internet em rotas transatlânticas, entre elas a que liga Istambul a São Paulo, momentaneamente gratuito. Já a Lufthansa começa, este mês, a oferecer Wi-Fi pago nos voos que decolam do Rio e de Guarulhos rumo à Europa. O mesmo acontecerá no segundo semestre com a TAP. Até então apenas TAM oferecia conectividade nos ares brasileiros, via celular.

Quem embarcou em algum dos Boeings 777 da Turkish Airlines que fazem a rota Istambul — Guarulhos nos últimos meses pode ter se surpreendido ao encontrar um sinal Wi-Fi de alta velocidade disponível em seu smartphone, tablet ou laptop. O sistema começou a ser implantado no começo do ano nos voos de longa distância da companhia turca e atende aos passageiros de todas as classes (executiva, comfort e econômica), sem distinção.

Por enquanto, o serviço só está disponível em três dos 12 B777 da frota, então é questão de sorte contar com esse benefício. Mas a empresa espera concluir nos próximos meses a implantação do sistema em todos os seus aviões. A partir de então, será cobrado. Os valores e a data ainda não foram divulgados. Um próximo passo que a empresa dará também é permitir a conexão em voos que saem do Brasil.

A internet banda larga da Turkish está associada ao sistema de entretenimento de bordo com TV ao vivo e canais de filmes, entre outros programas, e foi desenvolvida pela Panasonic Aviation Corporation. Esta empresa, junto à Deutsche Telekom, é uma das responsáveis pelo Flynet, o sistema de Wi-Fi oferecido a bordo das aeronaves da Lufthansa desde 2010. A partir deste mês, já é possível acessar a rede nos aviões da empresa alemã que partem do Brasil, assim que elas deixem o território brasileiro. Por questões de limitação de satélites, a conexão só é possível sobre a zona internacional do Atlântico e a Europa.

Para se conectar, basta entrar no navegador, fazer um cadastro no site indicado e efetuar o pagamento com cartão de crédito. O custo para o passageiro é de 10,95 euros por uma hora ou 19,95 euros por 24 horas. A internet está disponível a bordo da cabine das aeronaves sem restrição de classe de viagem. Atualmente, 99 aviões que fazem voos internacionais da Lufthansa já contam com a tecnologia. A previsão é que toda a frota esteja equipada até o fim do ano.

O verão europeu de 2012 deverá marcar a estreia do serviço de conectividade a bordo da TAP em voos transatlânticos. Usando o sistema OnAir, empresa tecnológica ligada à Airbus, a companhia portuguesa instalará antenas receptoras de sinais nas aeronaves A330, que atendem a rotas para cidades brasileiras como Rio, São Paulo e Fortaleza. O modelo adotado será de pagamento com cartão de crédito, como o da Lufthansa, por um tempo determinado de conexão, mas as tarifas ainda não foram divulgadas.

O sistema OnAir é o mesmo usado pela British Airways. Mas no caso da companhia britânica, a conectividade só está disponível nos voos entre Londres e Nova York. E mesmo assim, o passageiro paga pelo roaming internacional da operadora, o que torna o serviço bastante caro.

Entre as principais empresas do mercado norte-americano, a oferta de internet a bordo se limita aos voos domésticos. O provedor que domina aquele espaço aéreo é o Gogo, identificado pelo sinal "gogoinflight" nos dispositivos eletrônicos de passageiros de boa parte dos voos de American Airlines, Delta Airlines e United. O passageiro pode fazer o cadastro e o pagamento no momento do voo ou com antecedência pelo site gogoair.com.

Na American e na United, a cobertura é válida para todo o território dos EUA. Na Delta, apenas para os voos que ligam Los Angeles, São Francisco e Nova York. A AirCanada também usa o mesmo sistema, nos voos que vão de Toronto ou Montreal a Los Angeles.

Sinônimo de luxo nos ares, a Emirates Airline escolheu implantar o Wi-Fi em "apenas" 21 A380 — os maiores aviões comerciais do mundo — de sua frota. O serviço, pago, será expandido para outras 69 aeronaves do tipo encomendadas pela companhia e que não têm previsão de aterrissar no Brasil a curto prazo.

No Brasil, serviço de conectividade nas aéreas ainda engatinha

Se está ficando mais fácil se conectar à internet em voos de companhias estrangeiras, esse serviço no Brasil ainda é embrionário. Apenas a TAM oferece conectividade a bordo, com sinal de GSM que permite aos passageiros usarem celulares, para falar, mandar ou receber mensagens de texto ou navegar. O serviço está disponível em 31 aviões que fazem rotas domésticas.

Além do alto custo da conexão, feita em roaming internacional e cobrada na fatura da operadora de telefonia, há um limite de usuários por voo: apenas oito, simultaneamente. Para o gerente de entretenimento da TAM, José Racowski, a curta duração dos voos internos não compensava um serviço de Wi-Fi, mas essa possibilidade não está descartada para o futuro:

— O modo de viver das pessoas hoje em dia é o da conectividade. É um caminho natural de todas as companhias.

Das empresas nacionais, só a Webjet admite estudar a implantação de algum sistema no futuro. A Gol lançou, no ano passado, a Gol no Ar, uma plataforma de entretenimento que funciona como uma intranet gratuita. O passageiro acessa, através do laptop, smartphone ou tablet, um ambiente com conteúdo exclusivo com noticiário, programas de TV, vídeos e música.

O que as companhias oferecem

AirCanada: Wi-Fi pago a US$ 9,95 (laptop) e US$ 7,95 (smartphones e tablets), apenas em voos entre Montreal ou Toronto e Los Angeles.

American Airlines: Wi-Fi com preços entre US$ 1,95 (15 minutos) e US$ 14,95 (24 horas), apenas nos EUA.

British Airways: Apenas entre Londres e NY. Preço de roaming internacional.

Delta Airlines: US$ 12 por um período de 24 horas, só em voos pelos EUA.

Emirates: Wi-Fi pago nos A380 da frota, com pacotes a partir de US$ 2,75 para telefones e a partir de US$ 10 para laptops e tablets.

Lufthansa: Wi-Fi pago a 10,95 euros por hora ou 19,95 euros por 24 horas em voos transatlânticos.

TAM: O passageiro paga roaming internacional de acordo com a tabela da operadora de telefonia móvel.

TAP: Lançará em breve seu Wi-Fi com preços ainda não disponíveis.

Turkish Airlines: Wi-Fi em fase de testes e gratuito, por enquanto, nas rotas internacionais.

United/Continental: Apenas em voos entre Nova York, Los Angeles e São Francisco. US$ 12 por um período de 24 horas.


© 1996 - 2012. Todos direitos reservados a Infoglobo Comunicação e Participações S.A. 

Arrecadação de impostos de telecomunicações cresce 10,91%

Os usuários de serviços de telecomunicações no Brasil pagaram em 2011 R$ 56,9 bilhões em impostos, informou nesta quinta-feira (19) a Associação Brasileira de Telecomunicações (Telebrasil), que representa as empresas do setor.


O valor é 10,91% superior ao arrecadado em 2010, R$ 51,3 bilhões, e inclui impostos pagos por usuários de telefonia fixa, telefonia móvel (celular), internet banda larga e TV por assinatura.


De acordo com a Telebrasil, em uma conta de telefone a carga tributária varia hoje entre 40% e 67%, dependendo do Estado. Isso significa que em uma conta de R$ 100 em serviços consumidos, o total a ser pago pelo brasileiro ficará entre de R$ 140 a R$ 167 devido aos impostos.


Além de impostos, incidem sobre a conta dos serviços de telecomunicação encargos setoriais. De acordo com a Telebrasil, em 2011 foram repassados ao governo R$ 5,3 bilhões a três fundos: Fundo de Fiscalização das Telecomunicações (Fistel), Fundo de Universalização das Telecomunicações (Fust) e o Fundo de Desenvolvimento Tecnológico das Telecomunicações (Funttel).

Tuesday 17 April 2012

Polícia de Chicago para uso LRAD som canhões em protestos da OTAN

Polícia de Chicago está se preparando para implantar o controversos som canhões contra os manifestantes no G8 / Cimeirada OTANno mês que vem. Chamados longo alcance dispositivos acústicos, ou LRADs, emitir doloroso e potencialmente prejudiciais tons sobre longas distâncias.

O dispositivo foi criado para uso militar, mas ela foi implantada contra os manifestantes pela primeira vez na Cimeira de 2009 G-20 em Pittsburgh.

A União Americana de liberdades civis mais tarde entrou com uma ação por um espectador, Karen Piper, que disse que ela sofreu perda de audição permanente, embora a associação americana do Tinnitus disse manifestantes Pittsburgh tinham sido "acusticamente agredida."

Eles compararam a pressão sonora para o que as forças armadas podem surgir de um artefato explosivo improvisado. Números maciços de manifestantes são esperados em Chicago quando a Cimeira começa no mês que vem.

Fonte

image

Notas Anonymiss Express:

Enquanto isso, os manifestantes fora vão reunir: envolvidos cidadãos que se preocupam com uma variedade de questões, incluindo a pobreza, leis trabalhistas, mudança climática, guerra imposta na Síria e/ou Irã, apartheid em Gaza, HAARP e guerras de tempo, primeira terra de Nações e agarra de água, poluição e radiação, água potável e os efeitos de fracking, lei de imigração e um sistema prisional comercializadas, direitos de capacidade (dis), consumo de energia, a legalização da cannabis, igualdade entre os sexos, para citar apenas alguns dos itens.

Eles serão ter-se informado sobre níveis sonoros e LRAD (ele será não ser a primeira vez LRAD é usado) e porque eles sabem que a diferença entre duas freqüências é usada para obter um resultado de provavelmente algo em torno de 2,5 kHz, mais a soma das freqüências, vai ter descobri várias táticas de defesa.

LRAD

Qualquer proteção serviria para impedir que a combinação dos dois órgãos. Espuma pode aparecer em cena? Eu estou pensando talvez mergulhador e fatos de surf? Ternos de mergulhador também protegem a maior parte da cabeça. Sem dúvida alguém irá experimentar com isso.

Se não protegido, espero que táticas de evasão a ser usado. O protesto provavelmente se estenderão, dependendo da distância do caminhão, como é um feixe focalizado.

Seja como for, os manifestantes são susceptíveis de ser criativo para se protegerem de "autoridades" e "protetores". E apenas no caso, as pessoas têm lerá em outros tipos de armas NLW demasiado.

Link da matéria acima :

http://anonymissexpress.cyberguerrilla.org/?p=3802

Fui vítima de cyberbullying, e agora?

Com o fácil acesso à Internet, seja pelo computador ou telefones móveis, o cyberbullying (agressão intencional, feita de maneira repetitiva que ocorre em meios eletrônicos) aumentou suas proporções e preocupações. Pela velocidade de propagação, a Web acaba se tornando propícia para colaborar com esse tipo de crime.
Mas, o que fazer caso o alvo seja você? O site Lifehacker elaborou alguns tópicos para nortear o usuário que acabou de descobrir que sofreu um cyberbullying.


Assim que notificar irregularidades ou constatar que sofreu cyberbullying, é necessário manter a calma. Para muitos, essa é a etapa mais difícil. Você também pode envolver a polícia e tentar alguma ação ou recurso contra o agressor, mas, para tanto, será preciso investir tempo, energia e dinheiro para achá-lo. Um outro cuidado quanto às leis são suas variações de lugar para lugar, podendo não valer a pena o desgaste.


É preciso levantar alguns fatos relacionados ao infrator. Será que realmente alguém está tentando aproveitar da sua identidade ou, por coincidência, essa pessoa tem o mesmo nome que você? Ou ainda, um anônimo realmente está agindo de má fé e se escondendo atrás do seu perfil? Nesse último caso, você pode ser vítima indireta de alguém que está apenas se aproveitando das circunstâncias e não necessariamente tentando atingir você.


Apele para os moderadores, editores ou gestores do site. Eles podem entrar em seu perfil para que você retome sua posse. Sites grandes e redes sociais normalmente levam o assunto a sério e, se for violado os termos de serviço ou política, tomam medidas contra o usuário "fake".


Outra dica é compartilhar sua experiência para que todos saibam o que está acontecendo em tempo real. Isso ajudará a esclarecer possíveis desentendimentos e deixar explícito que existe alguém se passando por você.


Se você descobriu que sofreu cyberbullying e tentou todos os recursos citados acima em vão, às vezes é preciso seguir em frente e desencanar. Quem usa a Internet sabe que você pode não ser você a qualquer momento. Um exemplo típico e aquele instante em que você levanta para beber água ou fazer qualquer atividade rápida longe do computador e sente toda vulnerabilidade ao lembrar que deixou todas as telas abertas - alguém pode se passar por você naquele momento, certo? Enquanto a maioria das pessoas tem bom senso suficiente para não tentar se passar por outra pessoa, existem aquelas que o fazem pelo simples fato da diversão momentanea.
A questão é ter sempre em mente que nada é infalível na Web. Lidar com um impostor é complicado pelo simples fato de não saber o que o motivou a falsificar sua identidade. Portanto, mantenha a calma e siga em frente! Quem realmente o conhece, mesmo que pela Internet, saberá o quão verdadeiras são suas atitudes. Pense nisso!
Como retomar a sua identidade nos principais serviços online

No Facebook: a rede social estipulou diretrizes para o que é ou não permitido em suas páginas. Você pode bloquear, excluir ou denunciar um perfil que seja abusivo. No caso de cyberbullying, além das três ferramentas oferecidas, dependendo da gravidade da situação, o site recomenda não responder, não esconder o fato e documentar e salvar o conteúdo com a ajuda da ferramenta "Amigo de Confiança". Aqui você encontra informações mais detalhadas.


No Twitter: existe uma assistência ao usuário dentro da central de ajuda na própria rede (acesse aqui). Ao entrar, você confere um tutorial contendo opções para denunciar violações, contas hackeadas, spam, abusos e outras vulnerabilidades na segurança.


No YouTube: o serviço de vídeos tem um local para denúncias que possibilita a remoção do conteúdo caso viole as diretrizes de privacidade do site, que podem estar relacionadas com a imagem, voz, nome completo e informações de identificação financeira ou pessoal. Em alguns casos, o site entra em contato com o infrator para notificá-lo da violação e dar uma chance para que corrija a situação em um prazo de 48 horas.  É possível denunciar qualquer conteúdo clicando na "bandeirinha", que está no canto inferior direito do vídeo.

À espera do 4G, usuário enfrenta dificuldades com 3G no Brasil.

De acordo com dados da consultoria Teleco, a 3G está presente em pouco mais da metade (51,8%) dos municípios brasileiros. Em março, a banda larga no celular estava funcionando em 2.883 das 5.565 cidades e atendia a 85% da população.

A 4G é um novo padrão de tecnologia chamado Long Term Evolution (LTE), tida como a evolução da rede 3G. A velocidade de conexão chega a ser até doze vezes mais rápida que no sistema atual. No leilão, que deve ocorrer em junho, fala-se em investimentos de até R$ 1,5 bilhão por uma licença nacional, além da construção de milhares de antenas — cada uma custa em média R$ 400 mil.

A Huawei, gigante chinesa que fornece infraestrutura para as empresas de telecomunicações, mostra-se preocupada com o cenário. Maurício Higa, gerente de Marketing de Redes Móveis da empresa, diz que o investimento das teles terá de ser distribuídos entre as duas tecnologias.

— As empresas vão ter que dividir os recursos com 4G. Entre 2010 e 2011, o número de acessos 3G dobrou, passando de 20,6 milhões para 41,1 milhões. Este ano, a meta é de 73 milhões de acessos. Para acompanhar, as empresas investem em estações “radio base”, que irradiam o sinal — diz Higa.

No Nordeste, a conexão móvel rápida caminha em ritmo lento. Por lá, em quase todos os estados, a cobertura 3G não chega a 50% das cidades. De acordo com levantamento feito pela Huawei e a Teleco, em Amazonas, Acre, Tocantis e Roraima a internet móvel não atinge 30% dos municípios.

Em 1.973 municípios não há concorrência

Especialistas destacam ainda outro problema com a 3G, licitada em 2007: a falta de concorrência. Hoje, somente 203 municípios no Brasil contam com as quatro grandes operadoras (Vivo, TIM, Claro e Oi). Em 35% das localidades, ou 1.973 cidades, há só uma operadora. Segundo Eduardo Tude, consultor da Teleco, apenas capitais e localidades com mais de 500 mil habitantes são plenamente atendidas pelas teles. Mas nem isso é garantia de qualidade:

— Nos grandes centros, a qualidade da 3G é variável, não funciona em diversos locais e horários. E não é possível levar o serviço para todas as cidades sem que se tenha capacidade para investir. A demanda é crescente, e as operadoras estão correndo com isso.

Hoje, quem lidera a cobertura nacional 3G é a Vivo, com 2.727 municípios. Em seguida, vêm Claro (866), TIM (502) e Oi (308), segundo estudo da Teleco com base em dados da Agência Nacional de Telecomunicações (Anatel).

Virgilio Freire, ex-presidente da Vésper e da Lucent, lembra que o cronograma estabelecido pela Anatel poderia ter sido mais ousado. Só em abril de 2013 é que 50% das cidades entre 30 mil e 100 mil habitantes terão 3G:

— Mas não é só isso. Hoje, um município é considerado coberto por 3G se atender a 50% da área urbana. Assim, nem em cidades como o Rio, há 3G em todos os bairros. Em muitas áreas, é o 2G que faz a conexão, mais lenta, aparecendo no celular a letra E, de Edge.

Marcelo Motta, diretor de Marketing da Huawei, lembra que a cobertura melhora à medida que as empresas têm retorno sobre investimentos. Para o diretor de assuntos regulatórios da TIM Brasil, Mario Girasole, a 3G ainda não alcançou a maturidade mercadológica:

— O backhaul (rede de transmissão) no país ainda é frágil para sustentar a transmissão em banda ultra larga (4G).

A Claro, que pretende ter 100% da rede em fibra ótica até meados do ano, afirma que dobrou o número de municípios com 3G em 2011. E que agora está em 876 cidades, dez a mais do que as registradas pela Teleco, em março.

— O foco é chegar onde não há banda larga fixa nos grandes centros urbanos — diz Fiamma Zarife, diretora de Serviços de Valor Agregado.

Os dados de 3G só não são piores porque a Vivo acelerou no último ano. A empresa quer chegar em junho com cobertura em 2.832 cidades. Já a Oi diz que divide seus investimentos com internet fixa e Wi-Fi.

— Olhamos o 3G de forma complementar, levando internet móvel onde não há fixa. As outras teles só tem celular. Estamos lançando o Oi Internet Total (combo com banda larga fixa e móvel) e, assim, ampliando os investimentos. Até setembro, pretendemos atender a 75% da população urbana com 3G. Hoje, é pouco mais de 50%. Estamos partindo para cidades menores — diz Eduardo Aspesi, diretor da Oi.

Moradora do Rio, Michelle Fernandes, diretora de logística da Next Global, classifica a 3G como “fraca”:

— Dentro de casa e do escritório, a internet rápida no celular não funciona. Quando viajo, a situação é ainda pior, pois há falha de conexão.

Enquanto a 4G não vem, algumas empresas começaram a investir na chamada 3G+, cuja velocidade é até três vezes maior que a 3G, e os preços dos planos são entre 10% e 15% maiores.


© 1996 - 2012. Todos direitos reservados a Infoglobo Comunicação e Participações S.A.

Contact centers e a Lei 12.551/11: porta aberta para um novo modelo de relações de trabalho

Os contact centers estão entre os maiores empregadores do Brasil. De acordo com a Associação Brasileira de Telesserviços (ABT), o setor já contava, em 2011, com 1,4 milhão de funcionários; é um mercado pujante e extremamente competitivo, que inclui de gigantes com mais de 78 mil colaboradores a empresas com dezenas de trabalhadores. Neste ano, no entanto, uma grande mudança está ao alcance deste mercado: a possibilidade de manter parte da força de trabalho dos contact centers instalada em suas casas, trabalhando de modo remoto.

Com a aprovação da Lei 12.551/11, que modifica o artigo 6º da Consolidação das Leis de Trabalho, o teletrabalho passa a ser totalmente regularizado. Trata-se de uma lei que altera todo o quadro. De um lado, o trabalhador remoto passa a ter direitos e garantias antes indisponíveis; do outro, o empregador passa a contar com uma relação organizada e clara - incluindo metas de produtividade e controles sobre o funcionário remoto. A Lei estabelece, por exemplo, que as metas das pessoas que trabalham em casa terão de ser 15% superiores às metas de quem trabalha no modelo tradicional.

O Gartner Group vai mais longe: estudo produzido em 2008, nos EUA, apontava que essa modalidade proporciona aumento de 20% na produtividade. Já naquele ano e naquele país, o Gartner mostrava que 83,9% das organizações contavam com trabalhadores remotos.

Uma característica muito interessante do universo dos trabalhadores remotos - ao menos nos EUA - é o que aponta um estudo da revista BusinessWeek: 75% dos agentes remotos têm educação equivalente ao nível médio. Normalmente, dentro do universo de pessoas que trabalham nos contact centers, apenas 20% destes apresentam o nível médio completo.

A adoção deste modelo irá reduzir os custos operacionais da empresa empregadora - isso inclui cortar aluguel, condomínio, energia elétrica, agua, IPTU e zeladoria. Outros ganhos são bastante fáceis de ser identificados: economiza-se tempo de deslocamento de casa para o trabalho e vice-versa; o funcionário ganha em flexibilidade - é comum, nos EUA, casos de mães que se dividem entre cuidar das crianças e trabalhar para contact centers, tudo a partir de suas próprias casas. O planeta ganha também: este modelo propõe um uso mais racional de recursos cada vez mais caros - e poluentes - como transporte, gasolina, etc.

A conquista destas vantagens, no entanto, exige profundas mudanças culturais e tecnológicas nos nossos contact centers. Culturalmente, é necessário criar programas de RH capazes de trazer o funcionário remoto para conviver, de forma presencial, com o time maior - isso pode acontecer em treinamentos, cerimônias de premiação, comemorações, etc. É fundamental, ainda, que o RH do contact center mantenha canais abertos de comunicação com esses funcionários. A cultura latino americana de trabalho ainda depende muito de encontros e convivência - o sentimento de pertencer ao time do contact center é essencial e cabe aos profissionais de RH lutarem para inserir, dentro do ambiente da empresa, a pessoa que está fora.

Quanto mais jovem for o profissional remoto, menos sentirá falta da convivência - a geração Y consegue fortes vínculos, inclusive emocionais, por meio de redes sociais, fóruns, etc. Fica claro, portanto, que o RH do contact center têm de criar um claro perfil de cada trabalhador remoto e, a partir daí, ir em sua direção com as ferramentas e ações mais adequadas para fazer esta pessoal ser parte do corpo.

A outra frente de batalha para resolver de forma excelente o alinhamento do trabalhador remoto com a empresa é a tecnologia. Para que o novo mundo de relações de trabalho aberto pela Lei 12.551/11 mostre seu valor é essencial garantir, no movimento de mudança para este novo horizonte, a correta infraestrutura tecnológica. Isso significa prover a perfeita conexão de rede entre a empresa e o trabalhador remoto e a perfeita solução de software para suportar a rotina deste profissional.

Neste novo mundo em que empregador e empregado pouco se veem, é a tecnologia que garantirá o vínculo entre as pessoas. Vínculo fundamental, capaz de inserir o trabalhador remoto dentro da filosofia, da ética e das melhores práticas de seu empregador; vínculo capaz de levar, ao gerente do contact center com a missão de orientar o trabalhar remoto, todas as ferramentas necessárias para ajudar seu profissional a atingir todas as metas propostas. Vínculo habilitado a trazer, para o profissional que trabalha em casa, o mesmo acesso á informação, ao suporte técnico ou comportamental que, antes, só encontravam as pessoas que atuavam dentro das sedes das empresas.

A Lei 12.551/11 estabelece, por exemplo, que o e-mail é lei na relação entre a empresa contratante e seu trabalhador remoto. Ordens e orientações enviadas pelo chefe ao seu profissional por meio do e-mail têm a mesma força que uma decisão apresentada dentro de uma sala de reuniões. Da mesma forma, pedidos de informação ou ajuda ou até mesmo reclamações do funcionário remoto devem ser enviados por e-mail à empresa contratante - e esse e-mail tem valor de prova.

O e-mail é apenas a ponta do iceberg num complexo e sofisticado ambiente de TI e Telecomunicações voltado para suportar o trabalho remoto dentro dos grandes contact centers. Da mesma forma que um contact center não pode dispensar, em sua sede, o que há de mais avançado em soluções de gestão de operadores, é fundamental levar essa visão para o mundo do trabalhador remoto.
Tecnicamente, a resposta será uma soma da correta infr

aestrutura de comunicação - especialmente as redes baseadas em IP, o padrão que leva, por um mesmo canal de comunicação, voz e dados - com softwares de gestão. Esses softwares, em suas gerações mais avançadas, conseguem mapear cada e-mail, cada chamada, cada interação do operador remoto e o cliente final. O próprio software gera relatórios e emite alertas em caso de alguma falha de atendimento, um período de espera mais longo, etc. Há softwares que conseguem até mesmo identificar palavras faladas ou escritas que, durante o atendimento, indicam um alto nível de stress entre o cliente final e o funcionário remoto. A correta plataforma de software traz, para o gerente do operador remoto, uma visão clara e instantânea do que se passa.

A entrada em vigor da Lei 12.551/11 é uma porta aberta para um novo modelo de relação trabalhista para os contact centers e seus milhares de funcionários. A única forma de se seguir por este caminho, no entanto, é valorizar o trabalhador remoto como se fosse um funcionário tradicional e levar até ele tudo de bom e de melhor - isso vale para a infraestrutura de tecnologia mas, também, para os cuidados com a pessoa.

Eric Lieb é diretor-geral da Interactive Intelligence do Brasil

Saturday 14 April 2012

Entenda como funcionam os grampos de celular

O assunto grampo voltou à tona. Vira e mexe, um escândalo começa em Brasília a partir de uma escuta telefônica que pega uma conversa comprometedora. O escândalo da vez é o das conversas de políticos com Carlos Augusto Ramos, o Carlinhos Cachoeira, acusado de comandar um esquema de jogo ilegal em Goiás. As ligações de Cachoeira e outros envolvidos foram grampeadas pela Polícia Federal, com autorização da Justiça, o que acabou registrando também conversas com o senador Demóstenes Torres. (Quer saber mais sobre o caso? Leia na editoria de Política.)

Mas, afinal, como é feito o grampo do ponto de vista técnico?

O primeiro ponto é: em qualquer rede, cabeada ou não, para um grampo ser bem-sucedido é necessário que os dados sejam coletados e decodificados. Quando isso é autorizado pela Justiça e conta com o auxílio da operadora, as duas tarefas são fáceis de serem realizadas.

Todas as ligações para celular passam por uma rede de telecomunicação e, por isso, podem ser alvo de um grampo legal. No caso das conversas de políticos com Cachoeira, o grupo era conhecido como “clube do Nextel” porque usaria aparelhos da operadora Sprint Nextel, habilitados nos Estados Unidos. Aparentemente, o grupo fez isso com a crença de que esses aparelhos são “antigrampo”. Mesmo um aparelho habilitado nos EUA, para ser usado no Brasil, precisa se conectar a uma torre (“estação base”, no termo técnico) operada por uma empresa brasileira, que está sujeita a ordens judiciais do país.

O celular Nextel utiliza uma rede diferente da maioria das operadoras, que é o GSM. Porém, o funcionamento da rede da Nextel, chamada iDEN, é parecido com o da GSM: as conversas são codificadas, mas, em algum momento, a operadora tem acesso “limpo” a esses dados.

A seguir, veja como funciona o grampo nas redes GSM e Nextel:

Rede GSM
A segurança das ligações começa no cartão SIM (Subscriber identity module – módulo identificador de assinante) usado no celular. Por meio dele, o que se fala é criptografado, com o objetivo de embaralhar os dados da chamada para impedir que alguém que esteja próximo use um aparelho de escuta e ouça a conversa.

Quando os dados chegam à operadora, eles precisam ser decodificados para serem novamente embaralhados de acordo com o código que será entendido pelo receptor dos dados. Entre essa decodificação e a nova codificação, a operadora possui os dados “limpos” da chamada, sem nenhuma segurança. Com uma ordem judicial, ela só precisa registrar esses dados em vez de simplesmente descartá-los.

A tecnologia 3G ainda não foi quebrada dessa forma – ou se, foi, ninguém nunca divulgou que conseguiu a façanha. Mesmo assim, ela também permite as escutas legais feitas com o auxílio da operadora.

Rede Nextel
Não existe tanta informação pública sobre a rede da Nextel (o iDEN) como existe do GSM, mas sabe-se que o sistema da Nextel, desenvolvido pela Motorola, também criptografa dados usando um cartão SIM, embora seja diferente do usado na rede GSM. Em nota ao G1, a Nextel diz que é possível realizar “interceptação telefônica de qualquer linha que trafegue em sua área de cobertura, mesmo que habilitada fora do país, por meio de ordem judicial válida, na forma da lei”.

A Nextel norte-americana (chamada de Sprint Nextel) tem capacidade para realizar grampos em sistemas de rádio, pelo menos, desde 2002, segundo um documento destinado à polícia norte-americana e que foi publicado na internet pelo site “Cryptome”. O documento não faz nenhuma menção a qualquer dificuldade técnica para realizar esse tipo de interceptação.

Alguns aparelhos Motorola, vendidos exclusivamente para a rede iDEN, também acompanham um recurso chamado MOTO Talk. Apesar de estar presente somente nos celulares da Nextel, ele funciona fora da rede da operadora: a comunicação ocorre exclusivamente entre os aparelhos presentes em um raio de, no máximo, 10 km.  De acordo com a Motorola, a função é como um walkie-talkie e não dispõe de um recurso de segurança para impedir que alguém próximo possa ouvir as conversas. Em outras palavras, o MOTO Talk também não tem qualquer recurso antigrampo.

Sistemas antigrampo
Existe algum aparelho à prova de grampo?

Para um telefone, celular ou fixo, ou mesmo uma chamada VoIP ou acesso à internet, ser “imune” ao grampo, ele precisa utilizar a criptografia “ponto a ponto” ou “fim a fim”. Nesse sistema, há uma camada adicional de segurança que só pode ser desfeita pelo aparelho usado pelo receptor da chamada. Ou seja, a operadora, o cabo ou a rede sem fio – qualquer intermediário –, embora possua acesso aos dados da chamada, isso não serve para muita coisa, porque o conteúdo é ilegível (ou inaudível, conforme o caso).

Friday 13 April 2012

As dificuldades da monitoração da Segurança de Rede

Este artigo tem  como objetivo tentar desmistificar a monitoração de segurança de rede, especialmente aquela relacionada ao uso de ferramentas de proteção como Intrusion Prevention Systems (IPS). São vários os desafios enfrentados pelos profissionais que monitoram as redes, tanto por parte de profissionais da própria empresa, quanto por aqueles que trabalham em empresas terceirizadas (serviço conhecido como MSS – Managed Security Services).

O desafio começa no volume de dados a serem inspecionados. Até um tempo atrás, o tráfego de 1 Gbps (efetivamente inspecionado) era considerado um volume bastante alto. Hoje em dia, especialmente em bancos e grandes operadoras, 10 Gbps pode ser considerado um volume médio. Já existe, inclusive, a tendência para redes de 40 Gbps e 100 Gbps. Tudo isso motivado, é claro, pelo uso cada vez mais intenso de links de internet rápida e pelos novos serviços disponibilizados. Quem utilizava conexões discadas, proporcionadas por placas de fax modem, com velocidades de 56 Kbps (as mais modernas para aquele momento) e agora utiliza links de 10 Mbps em casa, certamente imagina para onde estamos caminhando.

Voltando ao IPS, como é possível dar conta de um volume tão grande de dados? Certamente a resposta não é simples e envolve principalmente o conhecimento do ambiente a ser monitorado.

Sob o ponto de vista da rede, os principais detalhes que devem ser observados são:

1. Topologia da rede, incluindo todas as interconexões com outras redes, fornecedores e filiais: O objetivo principal é identificar todos os perímetros existentes para não corrermos o risco de utilizarmos um cobertor curto. Existem redes que possuem uma característica de estrela, onde todo o tráfego de rede obrigatoriamente deve passar pela matriz antes de ser encaminhado para as filiais (esse tipo de interconectividade é um pouco mais fácil de ser monitorarada). O difícil mesmo é quando todas as filiais conversam entre si, sem obrigatoriamente passarem pela matriz. Nesse caso, cada filial deve ser considerada uma rede autônoma, com medidas independentes de segurança (Firewall, IPS, etc).

2. Conhecimento dos serviços disponibilizados nos diversos segmentos de rede: Parece óbvio, mas é impressionante a quantidade de empresas que simplesmente desconhecem qual o perfil de tráfego/serviços disponibilizados. Issto normalmente ocorre devido ao crescimento rápido. Não dá para proteger uma rede sem conhecer o seu perfil de tráfego. Ponto. Quer um exemplo? Se um determinado segmento de rede refere-se a uma DMZ (zona desmilitarizada) e deve possuir somente tráfego HTTP, podemos muitas vezes identificar a ocorrência de um ataque pela simples identificação de um tráfego de rede anômalo, como TFTP, FTP, IRC. Às vezes, a simples tentativa de conexão ao mundo externo, a partir de um servidor localizado na DMZ, já pode ser considerado um tráfego suspeito.  E tudo isso sem sequer levar em consideração a existência de uma assinatura para o ataque em questão.

3. Identificação dos Sistemas Operacionais e Serviços disponibilizados nos segmentos de rede: Exemplo: A DMZ possui somente sistemas Linux Debian, com serviços HTTP (Apache), DNS (Bind) e FTP (Proftpd). Essta identificação é fundamental para um correto correlacionamento dos ataques, bem como para permitir a ativação de assinaturas pertinentes. Para que eu vou habilitar assinaturas relativas ao ambiente Microsoft Windows, se eu só tenho servidores Linux? Isto permite reduzir sensivelmente a quantidade de falsos-positivos e aumentar a performance do IPS. Um inventário da rede e dos serviços é fundamental neste caso e, ao contrário da tecnologia de antivírus, uma maior quantidade de assinaturas habilitadas não representa, necessariamente, maior proteção.

4. Preparação da equipe: Não basta conhecer o produto e saber configurá-lo. É muito importante ter um conhecimento dos ataques e entender sua mecânica. Desta forma fica muito mais fácil a análise dos eventos e identificação de falsos-positivos. Este aprimoramento é constante e permite a retroalimentação do IPS com assinaturas melhor customizadas ao ambiente da empresa.

Os itens elencados acima certamente permitem melhorar a performance do IPS, possibilitando assim o uso mais inteligente dos recursos computacionais do equipamento utilizado para análise (normalmente appliances). De qualquer maneira, a tarefa não é simples e deve ser repetida continuamente, até para que seja possível a adaptação a novos serviços, servidores, etc.

Paulo Braga é engenheiro de segurança da Sourcefire e possui mais de 20 anos de experiência em tecnologia da informação, sendo 12 anos dedicados ao tema Segurança da Informação

Wednesday 11 April 2012

Oi e Vivo expõem visões diferentes sobre a evolução para redes 4G no Brasil

Nesta terça-feira, 10, durante o ConvergeTec, seminário promovido pela Converge Comunicações, em São Paulo, a Oi novamente deu pistas de que deve apostar todas as suas fichas na quarta geração da telefonia móvel no Brasil. O diretor de desenvolvimento e engenharia de rede da Oi, Luis Alveirinho, foi enfático em relação às qualidades da 4G. “Trata-se do primeiro standard mundial adotado simultaneamente em todos os países, o que não aconteceu no GSM, nem em 2G ou 3G. O LTE está sendo assumido como o verdadeiro padrão transversal a todas as indústrias mundiais”, diz.

Para ele, como se trata de uma tecnologia all IP e de alta capacidade de transmissão, o LTE propiciará um ambiente ideal para a convergência das redes e serviços em um sistema único de controle, a plataforma IMS. “O LTE é um salto tecnológico significativo e caminho inevitável da indústria e vem possibilitar às operadoras a resolução, a um custo eficiente, do problema de capacidade das redes móveis”.

Contraponto

Em contrapartida, o diretor de planejamento de rede da Vivo/Telefônica, Leonardo Capdeville, defendeu o 4G como tecnologia do futuro, mas destacou o 3G com ainda muito potencial pela frente. “O 3G ainda está na sua adolescência e deve se tornar a tecnologia dominante por volta de 2015 a 2016 no Brasil. Além disso, ainda não há aplicações que justifiquem o acesso móvel a 20 Mbps”, criticou, em clara menção de qual tecnologia merecerá a maior parte dos esforços da Vivo.

“Temos um capital limitado de investimento para atender a necessidade regulatória e lidar com a necessidade de mercado, que é a massificação do 3G, e é aí onde estarão nossos usuários. Os nossos clientes ficarão na rede 3G e cada vez mais na rede 3G. Ela não está em declínio, muito pelo contrário, está no seu auge”, acrescentou, revelando que a sobrevida do 3G no Brasil deve se estender ainda por muito tempo. “Estamos falando de uma janela de sete anos de convivência!”

Capdeville citou ainda outras barreiras de entrada para o LTE, como a baixa disponibilidade de smartphones compatíveis com o 4G e o alto custo desses terminais, e o desafio de cobertura na prestação do serviço em frequências altas (2,5 GHz), o que exigirá maiores investimentos por parte das operadoras, inclusive na cobertura indoor.

“Cerca de 70% do acesso à Internet móvel é feito em ambientes indoor e faixas menores, como o 700 MHz, são mais apropriadas a esse uso”. Sobre os smartphones, ele lembra que há apenas três modelos existentes hoje no mundo que seriam plenamente conmpatíveis com as redes brasileiras, em termos das frequências que o Brasil está planejando e do fall back (quando o celular sai da rede 4G e volta para a rede 3G).

"Infelizmente, aprendemos na marra, com a experiência do CDMA, que quem determina o ritmo de adoção das tecnologias e o sucesso dos padrões não são as operadoras, mas os terminais disponíveis".

Alveirinho, por outro lado, preferiu limitar sua apresentação às vantagens operacionais do LTE. “O custo de transporte nas redes LTE podem, em determinadas condições, ser de 4 a 6 vezes mais barato que nas redes 3G”, compara, alegando que falta de demanda não serve de pretexto para postergar o time-to-market do 4G. “Quando inventamos o SMS, ficamos vários anos sem utilizá-lo. Foi a geração Y que passou a fazê-lo e estávamos preparados quando isso foi necessário. Talvez tenha que ser assim com o LTE no Brasil também”, prevê.

O executivo português da Oi, no entanto, destacou os desafios que devem ser enfrentados pelas teles em um ambiente multiplataforma. “É a primeira vez que teremos quatro redes sobrepostas: GSM, 3G, LTE e Wi-Fi. É preciso ter cuidado, senão haverá um problema sério de planejamento de redes, utilização de metro e micro células, aumento de sinalização nas redes Wi-Fi, handover do VoLTE, entre outros desafios”. Além disso, “os desafios técnico-operacionais e o custo de implantação do LTE serão tanto maiores quanto menor for a utilização de frequências complementares”.

Alveirinho também revelou que a Oi faz trials de tecnologia LTE com cinco vendors. Os fornecedores são a Nokia Siemens, Huawei, Alcatel-Lucent, ZTE e Ericsson. “A Oi está testando o LTE no laboratório e em campo. Os resultados obtidos em campo apresentam algumas flutuações em relação aos valores teóricos, mas a Oi está preparada para a adoção dessa tecnologia”.

Citando sua experiência internacional, sobretudo na Europa, o executivo da Oi acredita que as operadoras locais atenderão as exigências da Anatel e o LTE estará tecnicamente disponível na Copa das Confederações do Brasil, em 2013. “A partir da autorização, é preciso de 6 a 9 meses para iniciar uma operação comercial de LTE”.

Perguntado se a estratégia da Oi seria a de passar diretamente suas redes para a quarta geração ou se optaria por uma evolução gradual para o 3G (onde a Oi está hoje em poucas cidades), indo para o HSPA+ e só depois para a 4G, Alveirinho disse que isso será objeto de uma divulgação das estratégias da operadora na próxima semana, mas lembrou que muito depende de como virão as regras colocadas pela Anatel.

MAs tanto Alveirinho quanto Capdeville foram enfáticos ao apontar como um dos grandes entraves para a adoção das tecnologias 4G no Brasil e o atendimento das coberturas previstas pela Anatel a questão das dificuldades de se vencer as legislações municipais específicas de implantação de sites e torres.

Alveirinho lembrou que em Portugal existe um acordo tácito entre operadoras e autoridades locais segundo o qual se um pedido de site não for questionado no prazo de 15 dias, a obra de implantação pode começar.

Tuesday 10 April 2012

Esqueçam o Service Desk tradicional, agora é SaaS e na nuvem

Uma das notícias mais impactantes dos últimos tempos no mercado de TI, diz respeito ao anúncio feito em outubro de 2011, pela consultoria Deloitte, que a ServiceNow, empresa de comercialização de software para centrais de serviços (service desk) em um modelo como serviço na nuvem, foi ranqueada em 5º lugar entre as 500 empresas de TI e Telecom que mais cresceram nos últimos 5 anos, com crescimento estrondoso de 32.000% neste período (2006-2010).

O segredo desse sucesso não está associado somente à redução de custos de licenciamento que o modelo SaaS proporciona, mas também a outras vantagens para os clientes, tais como: menor necessidade de uso de recursos (pessoas de TI, hardware e software) e redução do tempo e complexidade nas implementações, permitindo atualizações sem custos adicionais, com maior suporte do fabricante. Tudo isso, sem nenhuma perda das funcionalidades exigidas por um software de service desk no padrão de atendimento completo ao ITIL v3. Neste modelo, o cliente não precisa se preocupar com a disponibilidade, backup, desempenho e administração da ferramenta, pois tudo fica a cargo do fornecedor. Ele pode desfrutar de uma excelente ferramenta bastando apenas ter um acesso à nuvem, no caso, à internet.

A atratividade do modelo SaaS (software as a service), se aplica às diversas disciplinas atendidas por ferramentas de software, como já demonstrado pela SalesForce.com (empresa de software de automação comercial). Mas no caso de service desk fica ainda mais simples, pois os processos hoje definidos pelas várias disciplinas do ITIL são de um alto grau de padronização, permitindo um grande avanço para aquelas organizações que estão em baixo ou médio nível de maturidade em gestão de serviços de TI e querem dar passos mais largos em curto espaço de tempo (time-to-market).

Obviamente este movimento tem incomodado os gigantes da indústria de software (BMC, CA, HP, IBM), que tem procurado criar alternativas de curto prazo, algumas realizando aquisições de empresas que atuam no modelo SaaS, mas na verdade todas tem registrado perdas importantes no market-share, pois demoraram a perceber o recado dado pelo mercado que o modelo tradicional de licenciamento está esgotado.

Portanto, aconselho aqueles que estão com novos projetos de service desk que olhem com bastante atenção a possibilidade de usar o modelo SaaS (ou On-Demand), privilegiando os processos e as funcionalidades para atender ao ITIL e considerando as soluções de software que possam dar perspectivas futuras de uma abrangência na gestão de serviços de TI de maneira mais completa, incluindo os processos de entrega de serviços, além dos processos de suporte.

Eduardo Brito é COO da Interadapt (empresa associada ao grupo francês Osiatis)

STF vai julgar se empresa que hospeda sites é responsável por conteúdo

O STF (Supremo Tribunal Federal) vai julgar se o conteúdo publicado em redes sociais é de responsabilidade da empresa que hospeda o site ou do usuário. Ainda sem data prevista para ocorrer, a análise da matéria irá decidir se a empresa tem o dever de fiscalizar e retirar do ar o conteúdo quando considerar ofensivo, sem a intervenção do Judiciário.

O tema chegou à pauta da Corte por meio de um recurso pedido pelo Google Brasil Internet contra uma sentença da Justiça mineira. Como o Supremo reconheceu a existência de repercussão geral na ação, o que ficar decidido pelo plenário valerá para os demais casos semelhantes.

Neste ação específica, o Google foi condenado a indenizar em R$ 10 mil uma vítima de ofensas na rede social Orkut, devendo retirar do ar a comunidade virtual em que as ofensas ocorreram.

Em sua defesa, a empresa alega que o Orkut é uma plataforma cujo conteúdo é de responsabilidade exclusiva do usuário. O Google afirma ainda que, no momento do cadastro, o usuário aceita o contrato e submete-se aos termos de compromisso de serviço, assumindo obrigações.

“Não há como exigir da Google a tarefa de emitir juízo de valor sobre o conteúdo lançado no site, de modo a impedir a veiculação de determinado conteúdo”, explicam os advogados, ao sustentar que a empresa não desempenha qualquer tipo de controle prévio do que é publicado no domínio.

Para reverter a decisão, o Google alega que a sentença da Justiça mineira fere a Constituição Federal por resultar em censura prévia. De acordo com a defsa, determinar que o site hospedeiro fiscalize as informações veiculadas na rede seria expressamente proibido no texto constitucional (artigo 5º, incisos IV, IX, XIV e XXXIII, e artigo 220, parágrafo 1º, 2º e 6º, da CF).

Ainda segundo o Google, a liberdade de expressão e o direito à informação estariam em risco, bem como o princípio da reserva de jurisdição do Poder Judiciário, que seria “o único com capacidade para efetuar juízo de valor sobre conteúdos revestidos de subjetividade”.

Repercussão geral

A indenização havia sido imposta ao Google pelo Juizado Especial Cível. A confirmação da sentença pelo TJ-MG (Tribunal de Justiça de Minas Gerais) fez com que a empresa apelasse ao STF.

Por entender que o tema pode atingir “inúmeros casos submetidos à apreciação do Poder Judiciário”, o relator da ação, ministro Luiz Fux, submeteu a matéria ao Plenário Virtual — sistema que permite votações sem que os ministros estejam reunidos fisicamente. A maioria dos ministros fez a mesma leitura e reconheceu a existência da repercussão geral.

Como não há regulamentação específica sobre o tema, o ministro Fux acredita que o julgamento da Corte terá como foco principal decidir se a incidência dos princípios constitucionais gera responsabilidades para as empresas hospedeiras. Mais especificamente, saber se há o dever de fiscalizar o conteúdo publicado nos seus domínios eletrônicos e retirar do ar as informações denunciadas como ofensivas, sem necessidade de intervenção do Judiciário.

Número do processo: 660861

Monday 9 April 2012

Quais dados o Facebook entrega a autoridades mediante intimação?

Qualquer site a princípio deve se submeter a exigências legais de fornecer informações sobre um ou mais usuários quando essa requisição se dá por meio de um mandado judicial. O Facebook não é exceção. Só que, até agora, não se sabia exatamente quais informações a maior rede social da atualidade entrega às autoridades.

Uma investigação de assassinato em Boston, EUA, ocorrida em 2009, trouxe recentemente a público o completo teor de um relatório oficial fornecido pelo Facebook. O documento original, com algumas informações censuradas, pode ser lido em <http://bit.ly/dm_bp>. Com 71 páginas no total, o documento apresenta inicialmente a intimação judicial (oito páginas), sendo o restante o relatório do Facebook propriamente dito.

Num caso policial que ocupou as manchetes do mundo todo naquele ano, Philip Haynes Markoff, estudante de medicina então com 23 anos, matou em um hotel em Boston Julissa Brisman, massagista profissional que postou um anúncio na seção erótica do site “Craiglist.com”. Antes ele havia roubado à mão armada, em ocasiões diferentes, duas outras profissionais do mesmo ramo. Sempre usando diferentes celulares pré-pagos para fazer seus contatos — na intenção de não deixar pistas — ele subestimou a capacidade das autoridades em juntar indícios digitais que inadvertidamente deixava ao longo de suas andanças. Em questão de uma semana e poucas horas após o crime, Markoff estava preso.

O relatório do Facebook só se tornou público porque o acusado suicidou-se em sua cela 16 meses depois de sua prisão, levando o juiz do caso a decidir pela divulgação. Markoff se matou em 15 de agosto de 2010 na cadeia de Nashua Street, na mesma cidade, onde estava detido à espera de julgamento.

Ao longo das investigações do caso, foram também intimadas a fornecer informações empresas como Microsoft (para revelar dados sobre o e-mail do suspeito, incluindo o endereço IP que foi chave no caso) e Comcast (para entregar informações sobre as chamadas de celular realizadas pelo assassino).

O relato completo do caso, ricamente documentado e maravilhosamente escrito por James Robinson, jornalista do “The Boston Phoenix”, pode ser lido em <http://bit.ly/dm_jrbp>.

Curiosamente, a polícia de Boston forneceu ao “Phoenix” o documento do Facebook na íntegra, sem suprimir qualquer informação que, em se tratando de uma rede social, incluía detalhes sobre os 308 “amigos” de Markoff no site. Foi por iniciativa do próprio jornal que certas informações do documento foram apagadas, de modo a zelar pela privacidade de centenas de pessoas que nada tiveram a ver com o crime.

A página oficial do Facebook sobre Markoff, considerado pelo site com “figura pública”, é <http://on.fb.me/dm_pm>.


© 1996 - 2012. Todos direitos reservados a Infoglobo Comunicação e Participações S.A. Este material não pode ser publicado, transmitido por broadcast, reescrito ou redistribuído sem autorização.

Friday 6 April 2012

REDES SOCIAIS: LIBERDADE DE EXPRESSÃO OU ABUSO?

Por Patricia Peck


Os brasileiros são campeões em solicitação de retirada de conteúdo do ar na internet e redes sociais. Por que será? Acredito que somos um povo de opiniões fortes, mais jocoso, acostumado ao fato de que tudo vira pizza e de que formamos um país onde impera a impunidade. Todos estes fatores reunidos permitiram criar um perfil de usuário de “moral mais frouxa”.

A liberdade de expressão precisa ser não apenas exercida, mas ensinada nas escolas. Como se expressar de forma ética e juridicamente correta? Como manifestar sua opinião, seu direito de protesto, sua reclamação de consumidor sem que isso se transforme em um abuso de direito. O limite entre liberdade e prática de crime é bem sutil. E faz toda a diferença a escolha do texto, qual palavra será publicada para expor no mundo, em tempo real, um pensamento.

Precisamos, então, de inclusão digital com educação. Em um contexto de maior acesso a tecnologia com serviços que viabilizam compartilhar informações, produzir conhecimento colaborativo, deve-se saber também quais são as regras do jogo, que vão desde a proteção da reputação e imagem das pessoas até dar o crédito ao autor.

Acredito que a grande maioria das pessoas não reflete muito sobre o que está comentando, publicando, ou melhor, documentando, nas redes sociais. E, infelizmente, é difícil exercer arrependimento, pois o conteúdo se espalha rapidamente, e se perpetua!

A maioria dos casos de solicitação de retirada de conteúdo do ar envolve, principalmente: a) uso não autorizado de imagem; b) ofensa digital; c) exposição de intimidade excessiva (em especial no tocante a menores de idade); d) uso não autorizado de marca; e) uso não autorizado de conteúdo (em geral infringindo direitos autorais).

E então, eis uma questão relevante, como orientar os jovens, que estão na rede social, na grande maioria mentindo a idade? O problema da ética já começa aí. Os serviços destacam a responsabilidade dos pais darem assistência aos seus filhos nos ambientes digitais. Um pai leva um filho ao cinema, mas não sabe o que ele está fazendo na “rua digital”.

A tecnologia não tem um mal intrínseco. Talvez, este nosso Brasil que está digital seja, de fato, mais transparente. Isso significa que somos assim mesmo, gostamos de nos exibir, de falar mal dos outros, fazer piadas de mau gosto, publicar fotos das pessoas sem autorização. Será? Ou a geração Y nacional é que não foi bem orientada, que não conhece as leis, que acha que não vai haver consequências de seus atos?

Temos que preparar melhor nosso novo cidadão da era digital, para gerar a própria sustentabilidade do crescimento econômico do país em um cenário de mundo plano, sem fronteiras. Para tanto, é essencial garantir a segurança das relações, a proteção dos indivíduos. Toda desavença social digital que possa virar uma ação de indenização, que acione a máquina da Justiça, gera prejuízos para toda a sociedade e não só para as partes envolvidas.

Devemos investir em duas políticas públicas digitais: a de educação e a de segurança. No tocante à primeira, deve-se inserir no conteúdo base da grade curricular do ensino fundamental e médio, das escolas públicas e particulares brasileiras, os temas de ética e cidadania digital, que devem tratar sobre: a) proteção da identidade (contra falsa identidade e anonimato); b) exercício da liberdade de expressão com responsabilidade (contra os abusos); c) uso correto de imagens; d) produção e uso de conteúdos digitais dentro das melhores práticas de direitos autorais (coibir plágio e pirataria). Os jovens precisam aprender como fazer o dever de casa sem copiar o conteúdo alheio!

Quanto à questão da segurança, deve-se por certo criar um time responsável pela vigilância das “vias públicas digitais”, para identificação rápida de incidentes e para aumentar a prevenção. Se o cidadão está na internet, então o poder público e o poder de polícia têm que estar também. Com ambientes preparados, com alta disponibilidade e com medidas que garantam a proteção dos dados dos brasileiros.

O país ficou mais justo através da infovia, onde seus artistas passam a ter alcance mundial. Inclusive, uma pessoa qualquer pode ficar famosa em questão de segundos e, com isso, realizar um futuro sonhado antes restrito a poucos. A mobilidade trouxe mais emprego, mais negócios, e já alcança também as classes C e D. Permitiu, também, a redução de tarifas e custos, seja pelo uso do Banco pelo celular ou mesmo do acesso aos serviços públicos na internet, mais rápidos, eficientes e com menos burocracia.

A conta ecológica também agradece, pois o uso da Tecnologia da Informação e Comunicações - TIC permite reduzir o uso do papel. Bem como o ativismo ambiental também cresceu nas redes sociais chegando até a se financiar através de doações que ocorrem no modelo comunitário-coletivo do “crowd funding” (financiamento colaborativo). Mesmo a relação do eleitor-candidato ficou direta de fato! E esta memória coletiva, que fica residindo nas redes sociais mesmo após o pleito, é importantíssima para o amadurecimento das escolhas e do próprio exercício do voto. Isso é um ganho!

Claro que o grande investimento em infraestrutura dos últimos anos foi o que viabilizou um Brasil mais democrático, que permite acesso a informação através de uma internet banda larga. Sem isso, por certo não teríamos incidentes, nem pedidos de retirada de conteúdos do ar. Mas, não podemos gerar analfabetos digitais. Não é só saber dar “click”, tem que ser educado e praticar o uso ético e seguro.

De todo modo, o mais importante não é ficar pedindo para tirar conteúdo do ar depois que o estrago já está feito, mas saber publicá-lo dentro de um modelo mais avançado de cidadania e respeito. Precisamos deixar de herança a vontade de criar e inovar. O uso do ferramental tecnológico tem que ser utilizado a serviço do bem social.

Invasão de perfis em redes sociais é o 2° crime digital mais comum no Brasil

O Norton Cybercrime Report – pesquisa global da Norton sobre o crime cibernético – , aponta que 45% das pessoas no Brasil tiveram seus perfis invadidos por cybercriminosos. Esse é o segundo tipo mais frequente de crime online no Brasil. O ranking é liderado pelos ataques com vírus de computador/malware e o terceiro tipo mais utilizado são os ataques de phishing.

Recentes episódios confirmam, que cada vez mais, os hackers se aproveitam das mídias digitais, como Facebook e Twitter, para aplicar golpes com os usuários dessas redes. Recentemente, o perfil do cantor internacional Justin Bieber no Twitter, que possui mais de 19 milhões de seguidores, foi invadido por um hacker que deixou uma mensagem indesejada. Outro exemplo de celebridade que teve seu perfil invadido foi a atriz Scarlett Johansson, com suas fotos íntimas expostas no mundo virtual. Além disso, usuários anôminos também sofrem corriqueiramente com esse tipo de ameaça e exposição.

Quanto mais tempo uma pessoa fica conectada na internet, maior é o risco de ser atacada. Segundo o Norton Cybercrime Report, a média global de tempo de navegação é de 24 horas/semana. No Brasil, esse tempo aumenta para 30 horas no mesmo período. Outro dado que abre brechas para os cybercriminosos é que 69% dos usuários de internet no Brasil não possuem um software de segurança instalados em suas máquinas, o que abre portas e facilita a vida dos hackers.

Para evitar os crimes online, a Norton dá dicas de segurança:

• Não clicar em posts suspeitos ou em “saiba quem visitou seu perfil” e links do gênero;

• Não aceite convites para ser amigo ou seguidor de pessoas desconhecidas;

• Nunca digitar uma senha mais de duas vezes quando for acessar sua página da rede social – esse pode ser um sinal de que você está frente a uma tentativa de ataque virtual;

• Não divulgar sua senha para estranhos ou deixá-la exposta, anotada em locais públicos;

• Desconfiar de ofertas “boas demais para ser verdade”.

Wednesday 4 April 2012

5 lições que CEOs podem tirar do filme "O Poderoso Chefão"

Nada de mortes, cabeças de cavalo ou tiros de metralhadora. Para Justin Moore, CEO e fundador daAxcient, empresa que oferece backup e recuperação de desastres em bancos de dados, o filme "O Poderoso Chefão", de Francis Ford Coppola, é recheado de dicas de gerenciamento de empresas para CEOs.


Moore já havia assistido o filme há cerca de 10 anos. Mas, só agora percebeu que a família Corleone dá ótimas dicas para comandar um negócio: "Eu certamente não aprovo o crime ou a violência, e não estou sugerindo que negócios devem ser operados como a máfia. Mas, há alguns temas universais no filme que eu posso relacionar com um CEO", diz Moore, segundo o Fast Company.


A primeira dica do filme é sobre construir fortes comunidades. Vito Corleone diz que "algum dia - e esse dia pode nunca chegar -, eu o chamarei para fazer um serviço para mim". Essas palavras mostram que é muito importante ter uma rede de relacionamentos. Moore explica que Vito criou uma rede de influências e relacionamentos ao garantir favores e ajudar pessoas.


Criar parcerias estratégicas permite que empresas trabalhem em mercados desafiadores: "Como um CEO, parte de meu trabalho é ser um superconector, criando redes entre a comunidade tecnológica", explica.


O mesmo Vito também diz: "Qual o problema com você? Acho que seu cérebro está ficando mole". E, nesse caso, o filme faz lembrar que tem horas que precisamos ser duros. E, manter pessoas responsáveis do seu lado também ajuda. "Assim como Vito permitiu alguns momentos de fraqueza, tentaram assasiná-lo. E, em grande parte, foi por causa de falhas em sua equipe", diz Moore.
Reprodução
(O Poderoso Chefão, de Francis Coppola, lançado em 1972)
Ele explica que "para ter sucesso nos negócios você precisa ser duro e ser extremamente focado em atingir metas e resultados". Isso quer dizer que ter muita tolerância com pessoas ou produtos que mostram baixa performance só dificulta tudo. "Você é totalmente responsável por todos os seus empregados e acionistas", comenta.


Já Michael Corleone nos ensina a não nos emocionarmos, com a frase "Não é pessoal, Sonny. São apenas negócios". Moore diz que muitas pessoas não conseguem lidar com o fato de que, nos negócios, há perdedores e vencedores. "Nos negócios, se você perder a oportunidade de ultrapassar seus competidores, eles tirarão você do mercado", diz.


O CEO também explica que você não deve fazer nada que ultrapasse os limites da moralidade ou dos direitos, mas sim que, "para ter sucesso, você precisa colocar de lado suas emoções e seus egos", porque, quando isso não acontece, você toma más decisões. Estar sempre um passo a frente de seus concorrentes e jogar para vencer são dicas importantes, segundo Moore.

Ser decisivo é ponto-chave, segundo o CEO. Ele explica que dois sentimentos emergem nele quando vê "O Poderoso Chefão". O primeiro é o choque, "porque [Don Corleone] é tão impiedoso que mata um membro de sua própria família". O outro é o respeito "para o fato que de Don sabe exatamente o que quer, executa de forma decisiva e comanda através de um respeito inabalável".


Você não precisa matar alguém para provar seu ponto de vista, mas, sempre saber que decisão tomar ajuda muito. Moore diz que é preciso "saber quem no seu time está tomando decisões corretas e confiar nele para que tome ações decisivas". Para ele, hesitar é perder oportunidades.


Vito Corleone também diz: "Você passa tempo com sua família? Porque um homem que não passa tempo com sua família não é um homem real". Moore resalta que muitos empresários passam 100 horas semanais trabalhando, mas isso acaba se tornando algo negativo para a vida do executivo e também para a empresa.


Ele diz que "um líder não pode solucionar problemas de forma criativa e nem tomar excelentes decisões sem estar conectado com pessoas ou paixões de fora do trabalho". Moore explica que passar tempo com a família e com os amigos dá a perspectiva necessária para construir relacionamentos e tomar ações decisivas para continuar no rumo do sucesso.