Tuesday 31 January 2012

Acusada de ser contra a qualidade da internet, Oi nega intenção de "anular" metas da Anatel

A Oi divulgou nota pública nesta segunda-feira (30) em resposta à mobilização na internet que acusa a companhia de ser contra a qualidade do serviço de banda larga. A operadora de telefonia fixa e celular e de TV por assinatura sustenta ser favorável à "adoção de um sistema de medição de qualidade da rede de banda larga", mas critica o modelo proposto pela Agência Nacional de Telecomunicação (Anatel) para estabelecer metas para a oferta de internet em alta velocidade para dispositivos móveis.

Nesta quarta-feira (1º), daqui a dois dias, termina o prazo para uma consulta pública da Anatel sobre a proposta da Oi de alterar as metas de qualidade para se oferecer serviço de acesso à internet banda larga móvel – 3G e celular. Ativistas ligados ao Instituto Brasileiro de Defesa do Consumidor (Idec) e à Campanha Banda Larga consideram que a adoção das metas é uma conquista da sociedade, obtida a partir de mobilização em redes sociais em outubro de 2011.

Segundo a Oi, a proposta da Anatel de exigir metas de velocidade mínima e média inclui aspectos que "não dependem exclusivamente das operadoras" de telecomunicações. Ainda de acordo com a empresa, o desempenho da conexão estaria associado a questões como a característica do site acessado, conexões internacionais, redes de outras empresas, servidor e computador usado pelo consumidor, entre outros.

"Não é prática internacional o estabelecimento de metas de uma rede que utiliza premissas estatísticas para o dimensionamento das ofertas de banda larga, uma vez que o próprio uso estatístico é dinâmico e evolutivo, pois depende da carga dos conteúdos de texto, áudio ou vídeo", prega a nota da Oi.

A empresa alega ter adotado padrões técnicos empregados na Europa e nos Estados Unidos para propor a alteração que deu origem à consulta pública. A Oi afirma ainda que, apesar de o regimento da Anatel chamar de "anulação" o pedido de revisão, a intenção da empresa é apenas promover ajustes. "A Oi reitera o seu compromisso com a qualidade e com o consumidor e acredita que o regulamento de qualidade da Anatel possa ser aprimorado seguindo os padrões internacionais", conclui a nota.


Desde às 16h desta segunda, usuários de redes sociais como Twitter e Facebook concentram suas manifestações com a hashtag "#OiContraQualidade". O objetivo da mobilização é pressionar a Oi e a Anatel a manter a resolução original. "As metas foram conseguidas após outra manifestação parecida, em outubro do ano passado, com forte participação dos consumidores", sustenta o Idec.


Em outubro, foram 80 mil mensagens enviadas à Anatel, segundo os organizadores da campanha. Caso a medida seja aplicada, haverá critérios definidos para avaliar o serviço, incluindo velocidade mínima e média exigida. Atualmente, por ser um serviço exercido a partir de concessão em caráter privado, não há planos de universalização nem parâmetros de qualidade.

Investimento em 4G pode deixar serviço 3G mais caro, diz sindicato

O diretor do Sindicato Nacional das Empresas de Telefonia e de Serviço Móvel Celular e Pessoal (Sindtelebrasil), Sérgio Kern, disse nesta terça-feira (31) que o ritmo de investimento estabelecido pela Agência Nacional de Telecomunicações (Anatel) no edital de licitação da faixa de frequência que será usada pelos celulares de 4 geração (4G) deve levar ao encarecimento -  inclusive do serviço 3G, hoje disponível na maior parte do país.

A licitação da faixa de 2,5 GHz, que servirá à telefonia 4G, está prevista para acontecer até 30 de abril. O edital, que está em consulta pública, determina que o serviço deverá estar disponível até o final de 2013 nas cidades que serão sede de jogos da Copa das Confederações e da Copa de 2014.

O edital estabelece ainda a cobertura pela tecnologia 4G de todas as cidades que tenham acima de 500 mil habitantes antes do início da Copa.

Kern defendeu, em nome das empresas de telefonia, que o edital seja alterado para que as metas de cobertura sejam fixadas apenas para as cidades que serão sede e subsede dos jogos da Copa das Confederações e Copa de 2014.

“As metas propostas de cobertura previstas no edital, para uso de 2,5 GHz, exigirão altos níveis de novos investimentos que deverão ser realizados sem que tenha acontecida a amortização dos investimentos realizados para o atendimento do edital de 3G”, disse Kern, durante audiência pública nesta terça-feira que debateu o edital do 4G, em Brasília.

Acom pede ajuda da Anatel na negociação com teles para liberação da faixa de 2,5 GHz

A Acom, uma das maiores empresas de MMDS e que recentemente foi adqurida pela Sky, pediu ajuda da Anatel na negociação da indenização que deverá ser paga pelas teles que comprarem as faixas que hoje são ocupadas pelas prestadoras de MMDS.


Miguel Martins, presidente da Acom, diz que a questão da compensação está muito "vaga" na minuta do edital. "Julgo que seria interessante para todos que a Anatel fosse um pouco para frente", disse ele na audiência pública que a Anatel promoveu sobre o assunto nesta terça, 31, em Brasília.

Para o executivo seria interessante se desde já que a Anatel divulgasse quais seriam os critérios para resolver os casos de confitos que eventualmente fossem parar na comissão de arbitragem da agência. Assim, sabendo já das regras, as negociações tenderiam a ser mais céleres, acredita Martins.


Bruno Ramos, superintendente de serviços privados da Anatel, respondeu que as negociações são privadas e que, por isso, houve a preocupação de que não fossem criadas regras que engessassem essa negociação. Contudo, a Anatel deverá adotar uma sugestão apresentada pela Neotec, a associação que representa as operadoras de MMDS: que haja um prazo máximo para a conclusão dessa negociação.


No edital submetido à consulta pública as empresas vencedoras da faixa de 2,5 GHz deverão ofertas serviços de quarta geração nas até maio de 2013 nas cidades sedes da Copa das Confederações. Já a resolução 544/2010, que liberou a faixa de 2,5 GHz para as teles, determina que as empresas de MMDS tem um prazo de até junho de 2013 para a exploração em caráter primário da faixa. Para que não haja risco de a faixa não estar liberada até o maio de 2013, a Anatel gostou da ideia de se estabelecer um prazo máximo para a conclusão das negociações.


De acordo com as regras do edital, a empresa que detém MMDS e que quiser participar do leilão para expandir sua atuação deverá renunciar à outorga existente. Nesse cenário, Carlos André quis saber como se dará o ressarcimento dos valores pagos pelas companhias que compraram outorgas de SCM ou SMP para uso na faixa e das que pagaram para a renovação das suas licenças. Ramos disse que em casos passados, a agência cobrou valores proporcionais ao tempo em que a companhia usufruiu das licenças.

Monday 30 January 2012

Anonymous anuncia ataque a bancos no Brasil

O grupo hacker Anonymous divulgou nessa segunda-feira que dará início a uma série de ataques contra páginas online das principais instituições financeiras do Brasil.

Segundo o grupo, a operação contra os bancos se dará ao longo de toda esta semana e receberá o nome de #OpWeeksPayment. Cada dia da semana será destinado a um serviço de internet banking, que deverá ficar fora do ar por 12 horas.

O objetivo do grupo é alertar a população sobre a injustiça e a corrupção que predomina no Brasil. E esta semana foi escolhida por conter os principais dias para pagamento dos salários.

A Info registrou intermitência no acesso ao site do banco Itaú na manhã desta segunda-feira (30). Em contato com a assessoria de imprensa da instituição, até o fechamento desta matéria, ainda não recebemos uma posição oficial a respeito de eventuais ataques na página da empresa.

Friday 27 January 2012

As 5 novas leis do anti-malware

As faces de um malware têm mudado consideravelmente, especialmente dos últimos cinco aos dez anos. Mas, infelizmente, muitas empresas estão adotando muitas abordagens ultrapassadas, com várias décadas de vida. Esse artigo fala sobre as novas leis do anti-malware e como eles ditam o desenvolvimento e implementação de uma proteção avançada contra o malware, e como soluções velhas precisam evoluir para enfrentar as ameaças que empresas enfrentam nos dias de hoje.

A Evolução das Ameaças

O malware tem mudado consideravelmente desde o início dos primeiros vírus de PC introduzidos há mais de 25 anos. Hoje, isso evolui tão rapidamente que muitos clientes acham impossível permanecer à frente da mais recente ameaça. Especialistas em segurança estimam que mais de 280 milhões de vírus foram disparados somente no ano passado.

Como se não bastasse a explosão de variação de malwares, sofisticados ataques do lado do cliente (Client Side Attacks) e ameaças persistentes (Advanced Persistent Threats – APT) vítimas-alvo que evitam completamente medidas tradicionais de segurança. Pesquisas recentes mostram que 75% de um novo malware são vistas em um único usuário final e cerca de 40% dos novos malwares ainda não são detectados.

A questão não é se sua rede será atacada com um malware avançado. É uma questão de quando isso vai acontecer e como você vai responder. Malwares avançados estão mudando a maneira de como a segurança é gerenciada. Há cinco novas leis que você deve saber:

#1 – Segurança é agora um problema “Big Data”

Desde que a primeira tecnologia anti-malware foi introduzida há décadas atrás, fornecedores de segurança têm realizado, assiduamente, algum grau de coleta, processamento de amostra, geração de detecção, e publicação de detecção. Em suma, essa abordagem foi impulsionada por fornecedores que poderiam traduzir rapidamente uma inteligência de back-office voltada à proteção do cliente.

O que mudou foi o grande volume de dados os quais um típico fornecedor deve lidar nos dias de hoje. Há uma década, as centenas de empresas de ameaças lidavam com menos, em comparação com as centenas de milhares de ameaças que devem lidar diariamente nos dias de hoje. Especialistas em segurança estimam que mais de 280 milhões de vírus foram liberados somente no ano passado.

Ainda pior, as ameaças de hoje são altamente efêmeras. De fato, aproximadamente 75% das ameaças que vemos hoje têm uma vida inteira de zero, o que significa que a primeira vez que um usuário achá-la também será a última vez que ele irá vê-la. A quantidade de associados com ameaças está crescendo rapidamente sem sinais de diminuição num futuro previsível.

#2 – Colaboração é a chave

Tradicionalmente, novas ameaças têm sido associadas com as novas tecnologias. Infelizmente, elas geralmente não têm sido desenvolvidas para trabalhar de forma colaborativa. Considere fornecedores de anti-malware tradicionais que descrevem suas tecnologias de proteção como uma “pilha”. Essa terminologia faz referência para um número de tecnologias as quais são operadas independentemente das outras.

Tipicamente, a ameaça é bloqueada em um sistema uma vez que uma das tecnologias que está na pilha detectá-la como maliciosa. Operando sozinha, informações importantes contextualizadas são perdidas entre as diferentes tecnologias.  A abordagem baseada em pilha foi o suficiente em um momento em que as ameaças foram mais simples. As ameaças avançadas dos dias de hoje exigem uma abordagem mais colaborativa. Em vez de operar de forma independente, as diferentes tecnologias devem formar um sistema totalmente integrado. Diferentes tecnologias de proteção devem integrar nativamente e trabalhar em conjunto para chegar a uma disposição final - sobre se um determinado arquivo ou aplicativo - representa uma ameaça.

#3 – Não pense usuário final, Pense usuários finais
Fornecedores de anti-malware tradicionais têm um foco singular no “usuário final”. A luta contra malware avançado requer uma abordagem mais holística. Uma vez que ameaças tipicamente se propagam entre as empresas, saber que um único usuário final foi exposto a uma ameaça não diz nada sobre como essa ameaça pode ter afetado o resto da empresa.

Professionais de segurança em TI precisam de uma perspectiva mais ampla para responder a perguntas críticas, incluindo: quantas ameaças serão alvo para a empresa como um todo?, como diferentes departamentos de uma empresa vão uns contras outros?, como a empresa se compara com a população mundial, em geral?. Saber respostas como essas e outras questões é importante para determinar como se irá combater malwares avançados.

#4 – Você sabe o seu melhor em um cenário de ameaças
Costumamos falar sobre o “cenário de ameaças” como se eles fossem um único objeto uniforme e monolítico. Embora isso seja conveniente para descrever as tendências gerais do mundo, a realidade é que o cenário de ameaças é diferente para cada empresa e, em muitos casos, até mesmo para os indivíduos dela.

Fatores que contribuem para que o cenário de ameaças de uma empresa inclui o seu tamanho, o valor das informações ativas, seu perfil ou reconhecimento como uma indústria, e a vulnerabilidade de seus sistemas. Por exemplo, uma pequena empresa que ofereça serviços de commodities tem preocupações diferentes em segurança da informação que uma multinacional que projeta tecnologias sensíveis para clientes do âmbito Governo.

Os responsáveis por garantir a organização estão frequentemente na melhor posição para entender a natureza única do cenário de ameaças. Na luta contra o malware avançado, essas mesmas pessoas deveriam ter autonomia para alavancar seus conhecimentos de domínio em vez de depender exclusivamente de seu fornecedor de anti-malware para desenvolver proteção para novos ataques.

#5 – Detecção não é mais suficiente

Infelizmente o resultado desse problema em rápido crescimento é que os profissionais de segurança geralmente não têm a visibilidade dos últimos ataques e lutam para manter o controle depois de uma quebra inevitável.

Apesar das nossas melhores intenções, jamais chegaremos a 100% de efetividade contra ataques. Ainda assim, devemos continuar a investir em novas tecnologias que fornecem detecção de ameaças mais recentes. É também cada vez mais claro que a detecção por si só não é suficiente. Hoje, a melhor solução também inclui tecnologias que podem ajudá-lo a responder rapidamente ao surto inevitável; tecnologias que podem ajudá-lo a responder questões críticas como: onde o ataque começou?, como ele se espalhou?, ele pode ser controlado?.

Além de responder a essas perguntas, uma solução deve ajudar a garantir que as empresas possam cumprir as suas missões apresentando o menor risco de perda de ativos, perda de produtividade e danos à reputação.


Raphael D’Avila é country manager Brasil da Sourcefire.

Wednesday 25 January 2012

Anatel poderia ter exigido mais velocidade para a faixa de 450 MHz, diz 4G Americas

A Anatel poderia ter exigido mais velocidade nas conexões de banda larga prestadas com a faixa de 450 MHz para a área rural. Essa é a opinião de Erasmo Rojas, diretor da 4G Americas para América Latina e Caribe. Segundo ele, velocidade exigida de 256 kbps é algo que pode ser alcançado "há muitos anos" com a rede Edge do GSM.

E, além disso, o governo cria distorções no Plano Nacional de Banda Larga (PNBL) entre a velocidade oferecida no meio urbano (1 Mbps) e rural – 256 kbps. "É como se a faixa de 450 MHz não pertencesse ao PNBL", critica ele.


Hoje, existe apenas uma tecnologia para a faixa de 450 MHz, o CDMA. Se essa faixa não for vendida isoladamente, ela será imputada às vencedoras dos blocos de 20 MHz da faixa de 2,5 GHz.

Rojas explica que é mais custoso para a operadora manter duas tecnologias distintas, além do que, os terminais para a faixa também são mais caros. Seria desejável ainda que os consumidores dos planos de telefonia rural pudessem usar os seus terminais na área urbana, mas, segundo Rojas, pelo escopo do que foi apresentado do edital, isso não será possível já que não há exigência de que a cobertrua em 450 MHz seja estendida para a área urbana.


A Anatel tem sido criticada por não ter estabelecido velocidade mínima para os planos de serviço oferecidos com a faixa de 2,5 GHz, que é destinada à quarta geração (4G). Isso pode fazer com que as prestadoras vencedoras não avancem para velocidades superiores a 1 Mbps, que hoje é ofertada pelas redes 3G.

Erasmo Rojas diz que a decisão da Anatel deixa a competição do mercado definir quais serão as velocidades dos planos de 4G, o que é salutar. Por outro lado, a Anatel estabelece que essa cobertura, especialmente nos municípios maiores, deverá ser feita com tecnologias de quarta geração.

"Se não fala de velocidade também não deveria falar de tecnologia porque para o usuário a tecnologia não importa", afirma ele.

Monday 23 January 2012

Dez táticas essenciais para aumentar a audiência do seu blog

Muitos sonham em viver do próprio esforço, serem seus próprios chefes e, quem sabe, conseguir até certa fama com isso. A profissão de "blogueiro" parece ser um atalho para esses três objetivos. "Parece", já que, para se tornar um blogueiro de sucesso - o chamado pro blogger -, você também terá que se esforçar muito - e se estressar mais ainda.


Pensando nisso, o Olhar Digital mostra dez táticas que, embora não sejam atalhos, podem lhe ajudar a evitar os erros mais comuns e, quem sabe assim, você consiga se destacar da ampla concorrência com certa antecipação:


1) "Blogar" não é fazer mágica
O primeiro pensamento de qualquer pessoa que quer começar um blog é como transformá-lo em uma fonte de renda suficientemente satisfatória para sustento próprio. Embora não seja errado sonhar, esse pensamento é um erro comum. Por que? Porque internet não é mágica. Embora a capacidade de transmissão de informação seja incrivelmente veloz, você vai levar muito tempo até que seu blog obtenha certa popularidade.


Será necessário que você troque links e crie uma rede de relacionamento enetworking sólida, para que as pessoas entendam seu conteúdo como algo válido e que forme opiniões. Em outras palavras, você vai suar a camisa sem retorno por muito tempo. O segredo é ter paciência.


2) Faça os outros trabalharem com você
Já ouviu o ditado contemporâneo que diz que "as redes sociais são o novo boca-a-boca"? Pois é. Assim que você publicar o seu post, viralize-o. Não falamos no sentido de encher a paciência dos seus amigos do MSN para divulgarem seus links (embora isso ajude também), mas de mostrar no Twitter, Facebook e afins como aquilo que você publicou é relevante e agrega conhecimento a quem você conhece.

As redes sociais estão aí para isso: updates periódicos no Twitter e Facebook são essenciais nos dias de hoje. Em outras palavras, não peça ajuda aos seus amigos: faça com que eles queiramdivulgar seu material.


Reprodução
3) Não há o que monetizar aqui! Circulando...
Você montou seu blog, escolheu o layout e já configurou as páginas que você queria. E agora, o que você vai fazer? Abrir o menu do Google AdSense e inserir o código para a exibição de anúncios direcionados, não é? Bom, você não poderia estar mais errado.


A verdade é que o AdSense, que promete lhe pagar com um cheque do Google sempre que seus fundos atinjam a marca de US$ 100, não é uma boa ferramenta de monetização. Nem qualquer outra desse nicho. Os acessos ao seu blog, de início, serão tão triviais que, se você chegar à casa das centenas ao final do primeiro mês, você é um dos que tem sorte - e mesmo assim seu cheque vai demorar a chegar.
Aqui, mais uma vez, vale a paciência.

Continue postando e divulgando seu conteúdo de forma autônoma. Conforme sua rede de contatos e leitores vai crescendo, eventualmente você poderá abordar alguém para um post patrocinado e arrancar seus primeiros trocados com seu blog. É, essa sensação se chama orgulho. Sabemos como é.


4) Defina um nicho e fique nele
Video games, música, tecnologia, fofocas, esportes ... Os assuntos que você gosta são tantos que a quantidade de pessoas que você pode atingir parece ser gigantesca. Nisso reside o problema: quem quer falar sobre tudo acaba não falando nada. Defina um tópico de abordagem - um que você tenha pleno conhecimento e estude sempre - e avance seu conteúdo na direção de um grupo que se interesse por esse assunto.


Mais além: relacione-se com o seu público. Você tem um blog sobre basquete? Por que não procurar os fóruns mais populares do assunto e discutir os temas que você aborda? Ou acessar fan pages do Facebook para mostrar seu serviço, dispondo-se a conversar com os outros membros e pedir sugestões a eles? É uma forma bastante eficaz de se construir uma rede forte de leitores e amigos.


5) Aprenda tudo o que puder sobre SEO
A parte técnica de se ter um blog é incrivelmente chata. Convenhamos: quem quer ganhar a vida escrevendo por conta própria não é lá muito disposto a ficar horas mexendo em tags e códigos de Search Engine Optimization (SEO). Mas assim como o dinheiro que você está tentando ganhar, esse é um mal necessário.
Sabia que o Google possui aproximadamente 3 bilhões de buscas feitas diariamente? Construir o SEO pode te colocar nessas buscas, o que, obviamente, é um enorme fator de direcionamento de audiência a seu favor. Atualmente, as ferramentas mais populares de blogs possuem guias para iniciantes, que explicam tudo de forma simplificada (listamos as quatro mais interessantes abaixo, todas em inglês):

Uma boa estrutura de SEO possui diversos benefícios: separa você dosspammers, pode colocá-lo em pontos altos de buscadores e garantir que sua audiência seja do tipo "vai-e-volta" - aquela que todos nós desejamos.


6) Invista na sua imagem
Por mais amigáveis que sejam, as plataformas "Wordpress" e "Blogspot' falham em um aspecto: qualquer endereço "seublog.wordpress.com" possui uma capacidade de repelir audiência. Isso se dá pelo fato da ideia - por muitas vezes errada - de que a ausência de um domínio próprio implica em amadorismo do autor. Para piorar, os layouts padronizados de ambas as plataformas, por mais belos que sejam, são usados por muitos blogueiros, evitando que você se destaque visualmente.


Se você tem o conhecimento técnico para isso, poderá por conta própria investir na compra de um domínio e uma hospedagem (com menos de R$ 100,00 mensais você consegue fazer isso), para que vocÇe dê mais propriedade ao seu blog. Já no tocante ao design, você pode desenvolver um por conta própria ou, caso seja leigo no assunto, comprar um: empresas comoThemeForest e PremiumThemes.com oferecem layouts completos a partir de US$ 30,00. Em último caso, se estiver a fim de investir um pouco mais, contrate um webdesigner e tenha o seu próprio, exclusivo visual.


Reprodução
7) Opine, mas dê o crédito
Um bom escritor sempre mostra suas fontes. Isso dá crédito à imagem do autor como alguém confiável. É mais interessante ainda se, ao invés de você copiar uma notícia, você apenas introduzí-la num texto próprio, mostrando os seus pensamentos sobre aquilo - claro, com argumentação lógica, o que dá a oportunidade dos leitores discutirem e concordarem ou discordarem de você.


8) O Google está aqui para ajudar!
O maior titã dos buscadores online possui uma série de recursos que podem auxiliar você muito mais do que a busca orgânica de resultados. Um deles, por exemplo, é o AdWords Keyword Tool. Trata-se de uma ferramenta que lhe permite pesquisar quais palavras-chave, e os sinônimos delas, possuem mais efeito para determinado assunto. Ele funciona de forma similar à busca, com opções para buscar o termo exato ou, melhor para você, a procura simples, com termos abrangentes. Usar este recurso para determinar quais palavras-chave usar no seu texto pode ser a diferença na hora que seu blog precisar saltar nos resultados de busca.


9) Está se relacionando com os outros? Então relacione-se mais!
Participação em sites de perguntas e respostas (como o Yahoo! Answers), permitir assinaturas via feed e newsletter, abrir espaço para comentários, responder os comentários - tudo isso contribui muito para que sua audiência não só cresça em números, mas também em fidelidade. Quando você permite que o leitor interaja, ele automaticamente cria uma relação de confiança com o seu blog, voltando a ele sempre que quiser buscar alguma novidade sobre determinado tema.


Sites como o Yahoo! Answers são especialmente interessantes nessas horas, uma vez que não só eles se provam uma ótima chance para você tirar dúvidas e linkar seu blog no processo, mas também servem de fonte para assuntos que você ainda não tratou.


10) Escreva para os outros e os outros escreverão para você
Conhece o termo guest blogging? Trata-se do nome dado à ocasião em que seu blog abriga o texto de outra pessoa, ou quando você escreve para outros. É uma das melhores formas de atacar audiências que, mesmo com as nove dica acima, você ainda não conseguiu conquistar. Inicialmente, é complicado convencer alguém de que você tem relevância o suficiente para escrever no blog/site dele; ou então convencer uma pessoa de que seu blog tem a audiência sedutora o suficiente para que ele queira contribuir para você. Nessas horas, amigos e contatos profissionais são de excelente ajuda. Aí vão algumas dicas para se dar bem em guest blogging:

  • Pesquise os posts do blog onde você quer escrever: é muito ruim perder tempo escrevendo um texto mais extenso apenas para vê-lo afundar por falta de interesse. Tenha uma noção da abordagem que o "blog-alvo" faz e qual o público que o frequenta.
  • O ideal é que seu texto tenha uma abordagem única, inédita para aquele veículo que você quer. Isso ajuda muito na hora de "vender seu peixe" e facilita a vida do dono do blog.
  • Da mesma forma, quando pedir a alguém que escreva para o seu blog, tente tornar o processo muito mais simples: ofereça um tema específico, além de informações sobre as visitas do seu site. Obviamente, quanto mais leitores você tem, mais sedutora será a sua oferta.
Vale lembrar: esses são apenas dez processos de uma atividade muito maior. Se você conhece alguma dica que deixamos de abordar aqui, sinta-se à vontade para compartilhar seus conhecimentos conosco nos comentários abaixo!

Thursday 19 January 2012

Pesquisa mostra que provedores de infraestrutura não atendem programas governamentais

A Symantec Corp. divulgou os resultados da pesquisa sobre Proteção de Infraestruturas Críticas (Critical Infrastructure Protection - CIP) 2011 que revelaram uma queda na informação e no engajamento em nível global, de acordo com o Índice de Participação CIP. Em comparação com 2010, as empresas pesquisadas em 2011 registraram um índice de 82% em programas governamentais de proteção, o que representa uma queda significativa de 18 pontos em relação à edição anterior.

Na América Latina, o Índice de Participação é um pouco mais alto, 88%. Os provedores de infraestruturas críticas vêm de setores com tanta importância que, se suas redes fossem atacadas e desativadas, isso resultaria em uma real ameaça à segurança nacional.

"Os resultados dessa pesquisa são um pouco preocupantes, tendo em conta os recentes ataques como o Nitro e o Duqu que tiveram como alvos alguns provedores de infraestruturas críticas”, afirma Dean Turner, diretor da Rede Global de Inteligência da Symantec.

“Levando isso em consideração, as limitações de recursos e outros ativos como mencionadas pelos respondentes ajudam a explicar por que os provedores de infraestruturas críticas tiveram de priorizar e concentrar seus esforços em mais ciberameaças no dia a dia. No entanto, pensamos que os ataques direcionados a provedores de infraestruturas críticas sob a forma do Stuxnet, Nitro e Duqu vão continuar.

Empresas e governos em todo o mundo devem ser muito agressivos em seus esforços para promover e coordenar a proteção das redes essenciais. Esses ataques mais recentes provavelmente são apenas o começo de mais ataques dirigidos a infraestruturas críticas”, completa.

Destaques da pesquisa

• Menor informação e engajamento em programas CIP do governo. Este ano, as empresas, de modo geral, mostraram-se menos informadas em relação aos programas CIP do governo. Em 2011, 36 por cento dos entrevistados estavam um pouco ou completamente a par dos planos para infraestruturas críticas do governo que estão sendo discutidos em seu país em comparação com a parcela de 55 por cento registrada em 2010.

Os resultados de América Latina foram ligeramente superiores, 39 por cento das organizações indicaram ter algum conhecimento ou conhecimento total sobre CIP. Por outro lado, em 2011, 37 por cento das empresas tanto em nível global como na América Latina estão completamente ou significativamente engajadas, contra 56 por cento registrados em 2010 (53 por ciento para América Latina).

• Um pouco mais de ambivalência em relação aos programas CIP do governo. A pesquisa também revelou que as empresas estão mais ambivalentes em 2011 do que foram em 2010 em relação aos programas CIP do governo.

Por exemplo, tanto em nível global quanto na América Latina, quando solicitados para expressar uma opinião sobre tais programas, 42 por cento não apresentaram nenhum parecer ou ficaram neutros. Além disso, as empresas estão agora um pouco menos dispostas a cooperar com os programas CIP do que estavam em 2010 (57 por cento contra 66 por cento, 59 por cento na América Latina).

• Organizações globais se sentem menos preparadas. Não é surpreendente que, à medida que cai a avaliação de uma organização em relação às ameaças, seu nível de preparação caia também. A preparação geral em escala global teve uma queda média de oito pontos (de 60 a 63 por cento em 2011, em comparação com 68 a 70 por cento em 2010).

Recomendações para garantir resiliência contra ciberataques a infraestruturas críticas

• Desenvolver e aplicar políticas de TI e automatizar processos de conformidade. Ao priorizar os riscos e definir políticas que envolvam todas as localidades, as organizações podem aplicar essas políticas através de automação integrada e fluxo de trabalho e não só identificar ameaças, mas remediar os incidentes quando ocorrem ou se antecipar a eles.

• Proteger as informações de forma proativa, tendo uma abordagem centrada nas informações para proteger tanto elas quanto as interações. Adotar uma abordagem sensível ao conteúdo para proteger as informações é fundamental para saber quem detém as informações, onde as informações sigilosas residem, quem tem acesso a elas e como elas estão entrando ou saindo da organização.

• Gerenciar os sistemas através da implementação de ambientes operacionais seguros, distribuindo e aplicando níveis de patches, automatizando processos para elevar a eficiência, monitorando e produzindo relatórios sobre o status dos sistemas.

• Proteger a infraestrutura garantindo a segurança dos endpoints, mensagens e ambientes Web. Além disso, defender os servidores internos críticos e assegurar a capacidade de fazer backup e recuperar dados devem ser prioridades. As organizações também precisam de visibilidade e inteligência em termos de segurança para reagir rapidamente às ameaças.

• Garantir disponibilidade 24x7. As organizações devem implementar métodos de teste que não causem interrupções e que possam reduzir a complexidade, automatizando a recuperação em caso de falhas. Ambientes virtuais devem ser tratados da mesma forma que os ambientes físicos, o que mostra a necessidade das empresas de adotar mais ferramentas multiplataforma e que trabalhem com vários ambientes ou a necessidade de padronização usando menos plataformas.

• Desenvolver uma estratégia de gerenciamento de informações que inclua um plano e políticas de retenção de informações. As organizações precisam deixar de usar o backup para arquivamento e casos de processos judiciais. Também devem implementar a eliminação de duplicação em todas as localidades para liberar recursos, usar um sistema de arquivos repleto de recursos e implantar tecnologias de prevenção contra perda de dados.

Recomendações para os governos

• Os governos devem continuar investindo os recursos necessários para estabelecer programas governamentais para as infraestruturas críticas.


. A maioria dos provedores de infraestruturas críticas confirma estar informada sobre os programas governamentais para infraestruturas críticas.


. Além disso, a maioria dos provedores de infraestruturas críticas apoia os esforços do governo para desenvolver programas de proteção.

• Os governos devem fazer parcerias com associações setoriais e grupos de empresas privadas para disseminar informações que divulguem as organizações e planos CIP governamentais, com dados específicos sobre como deve ser a resposta a um ciberataque em nível nacional, quais são as funções do governo, quem são os contatos específicos para vários setores em nível regional e nacional, e como o governo e as empresas privadas devem compartilhar informações em caso de emergência.

• Os governos devem enfatizar que a segurança não é suficiente para ser resiliente no caso dos atuais ciberataques. Também é preciso destacar para os provedores de infraestruturas críticas e empresas que suas informações devem ser armazenadas, organizadas e priorizadas e contar com backup, e que devem ser estabelecidos processos de controle de acesso e identidades apropriados.

Wednesday 18 January 2012

Redes 3G+: elas já estão entre nós! Veja como garantir essa velocidade extra

O sinal 3G foi instituído no Brasil em 2004, com a Vivo. Desde então, o que temos é um misto entre o 3G completo (mais veloz e estável, porém com taxas mais caras) e o popularmente chamado "2.5G", que oferece algumas funções do 3G, mas não com a mesma velocidade ou estabilidade.

Quase dez anos depois, as operadoras de telecomunicações já começam a visar o próximo passo. Não. Ainda não é o 4G, apesar dos smartphones mais recentes já darem suporte à essa conexão. O que temos hoje é conhecido como "3G+" ou "HSPA+" (High Speed Packet Access) – um padrão de velocidade que fica na linha intermediária entre o 3G atual e o 4G ainda inexistente no Brasil.


Pelo menos três das quatro grandes operadoras nacionais já oferecem os pacotes 3G+. É possível, inclusive, que você já esteja usando esse tipo de serviço sem saber. Saiba o motivo no detalhamento de oferta da Vivo, Claro, TIM e Oi /Brasil Telecom para a tecnologia 3G+:
VIVO

  • Desde quando oferece?
    A VIVO já dispõe de um pacote 3G+ desde novembro 2011 em São Paulo.
  • Como posso contratar e quais são os preços e condições?
    Ainda não é possível contratar planos para smartphones - apenas para banda larga (o modem). Clientes corporativos, atualmente, os únicos que podem assinar esse serviço, pagam R$ 199,90 mensais (já incluso o modem no plano "VIVO Internet Brasil 8GB"), mas há desconto de 50% para assinantes Speedy - com valor de R$ 99,50 mensais.
  • Quais são os aparelhos compatíveis?
    Segundo a própria VIVO, esse sinal de conexão ainda não está disponível para smartphones e afins. Seu uso, por enquanto, é restrito a notebooks e desktops.
CLARO
  • Desde quando oferece?
    A Claro já disponibilizou o sinal 3G+ para seus clientes em dezembro de 2011, em várias cidades do país.
  • Como posso contratar e quais são os preços e condições?
    Indiretamente, você já contratou. A Claro providenciou o upgrade do sinal para o 3G+ em dezembro de 2011, sem custo adicional para seus clientes. A questão reside na compatibilidade do seu aparelho.
  • Quais são os aparelhos compatíveis?
    - Motorola Atrix
    - Motorola Razr
    - Samsung Galaxy SII
    - Samsung GalaxyTab 8.9 (exclusivo da operadora)
    - Samsung GalaxyTab 10.1
    - Samsung Galaxy Note (exclusivo da operadora)
Reprodução
TIM
  • Desde quando oferece?
    A atualização da rede atual para o padrão 3G+ está sendo feita de forma gradativa. Segundo a TIM, cerca de 50% das antenas da empresa já são capacitadas para o 3G+, mas ainda não há previsão de um lançamento comercial para os clientes.
  • Como posso contratar e quais são os preços e condições?
    Assim como ainda não há previsão de lançamento comercial, não há informação sobre novidades de preço.
  • Quais são os aparelhos compatíveis?
    De acordo com a TIM, não há qualquer informação neste tópico.
OI/BRASIL TELECOM
  • Desde quando oferece?
    A Oi / Brasil Telecom já conta com instalação de estruturas para transmissão de sinal 3G+ desde outubro de 2011.
  • Como posso contratar e quais são os preços e condições?
    Segundo a própria operadora, este serviço ainda não está disponível para aquisição.
  • Quais são os aparelhos compatíveis?
    Assim como ainda não há disponibilidade do serviço para compra, a Oi também não soube informar sobre compatibilidade de aparelhos.

Vale citar ainda que as velocidades são bastante variáveis, mas, a salvo da Claro, que fez a conversão do sinal sem custo para o cliente (em outras palavras, a maioria nem percebeu a mudança), as outras empresas ou ainda não disponibilizaram assinatura - o que pode ser um indício de aumento de custos mensais para o cliente - ou então destinam o serviço, ao menos em um primeiro momento, para finalidades corporativas.


Você, cliente Claro 3G ou Vivo 3G Corporativo? Percebeu a mudança no seu celular? A conexão é mais rápida? Quanto? Conte-nos sua experiência nos comentários abaixo. Em breve, faremos um "hands on" e um comparativo dos serviços citados.

Tuesday 17 January 2012

Justiça expede mais de 2,5 milhões de pedidos de penhora on-line em 2011

No ano passado, mais de 2,5 milhões de pedidos de penhora on-line já foram expedidos pela Justiça dos estados e mais de 300 mil pela Justiça Federal, segundo o Superior Tribunal de Justiça (STJ).

De acordo com o órgão, os números comprovam a eficácia do modelo de penhora criado em 2001 a partir de um convênio entre o Banco Central, o STJ e o Conselho da Justiça Federal, que logo se estendeu para outros órgãos do Poder Judiciário.

O modelo, segundo o STJ, permite a execução mais rápida das sentenças condenatórias e faz com que o credor tenha uma certeza maior da satisfação da dívida.

Antes feita por meio de ofício em papel, a penhora passou a ser efetivada pelo sistema eletrônico Bacen-Jud, no qual o juiz emite uma ordem eletrônica diretamente ao banco por meio de um site de acesso restrito.

Este determina o bloqueio da conta do devedor. No sistema, o juiz também pode realizar o arresto provisório, previsto no art. 653 do CPC (Código de Processo Civil), bloqueando as contas do devedor não encontrado. Em sua segunda versão, o Bacen-Jud 2.0 permite a integração com as instituições financeiras, que também desenvolveram sistemas informatizados a fim de eliminar o processo manual.

Apesar disso, o STJ decidiu que a requisição de informações e a determinação de indisponibilidade de bens podem ser feitas ainda pelo tradicional método de expedição de ofício.

Em março do ano passado, o STJ decidiu que o valor depositado em conta conjunta pode ser penhorado em garantia de execução, ainda que somente um dos correntistas fosse o responsável pelo pagamento da dívida. De acordo com ministros da Segunda Turma, se o valor pertence somente a um dos correntistas, não deve estar nesse tipo de conta, pois nela o dinheiro perde o caráter de exclusividade.

Em outra decisão, os ministros da Primeira Turma entenderam que o ônus de comprovar a indispensabilidade dos valores depositados é do executado. Pelo CPC, a execução se processa no interesse do credor, que tem a prerrogativa de indicar bens à penhora. Na ordem preferencial, prevalece o dinheiro, depósito ou aplicações financeiras. Ainda segundo a Primeira Turma, compete ao executado comprovar que as quantias depositadas em conta corrente são impenhoráveis.

Monday 16 January 2012

Presidente da FCC mostra preocupação com liberação de espectro para banda larga

A julgar pelo discurso e intervenção de Julius Genachowski, presidente da FCC, órgão regulador norte-americano, em seu pronunciamento no CES 2012, que acontece esta semana em Las Vegas, a questão do espectro é cada vez mais crítica para o desenvolvimento da banda larga nos EUA.

"Nesse evento, tudo ficou "smart". São SmarTV, smartphones, smartcars… O que permite esse nível de inovação que vemos aqui é a banda larga, sobretudo a banda larga móvel", disse ele, referindo-se aos principais destaques do evento, dedicado à eletrônica de consumo. Segundo o presidente da FCC, a agência de telecomunicações norte-americana definiu como metas para a banda larga a ubiquidade, a necessidade de mais espectro, a necessidade de zonas de inovação e universalidade.

"Um terço da nossa população ainda não tem acesso à banda larga. Reduzir essa deficiência é não só incluir essas pessoas em um universo de informação, mas introduzi-las à economia do século 21", disse.

O problema colocado por Genachowski é uma disputa interna que a FCC enfrenta com o Congresso e a pressão de alguns grupos para que as regras de licenciamento de espectro sejam alteradas. Basicamente, o que os opositores da atual política seguida pela FCC querem é que a agência seja proibida de liberar espectro para tecnologias não-licenciadas (como Wi-Fi, NFC, Bluetooth etc.) e que não possa mais estabelecer restrições a quem compra espectro.

Também existe muita resistência a uma nova política de licenciamento de espectro que a FCC pretende seguir, que é a de leilões incentivados, em que quem tem espectro e quer se desfazer dele pode vender pra quem quer comprar espectro. É o caminho que a FCC encontrou para conseguir passar parte do espectro dos broadcasters (radiodifusores) para as empresas de banda larga. "É uma forma justa porque deixa o mercado decidir como o espectro vai ser utilizado pela sociedade".

O presidente da FCC lembrou que os EUA têm hoje o maior número de usuários 3G no mundo e o maior número de usuários 4G. "Estamos liderando a inovação na banda larga móvel, mas para isso continuar o espectro é vital", disse.

Ele lembrou que os EUA sempre foram pioneiros na forma de distribuir e utilizar o espectro. "Coisas como o espectro não- licenciado, Wi-Fi, uso do white space (espaço entre os canais de radiodifusão) para banda larga foram inovações que nós (os EUA) apresentamos. Temos que continuar inovando na forma de utilizar e gerir o espectro", disse o principal homem da FCC.

Ele foi especialmente crítico em relação às empresas de radiodifusão. "Em Nova York, por exemplo, existem 28 estações. As pessoas não são nem capazes de lembrar o nome de todas elas. Acho que cabe ao mercado, a elas inclusive, decidirem se querem continuar existindo ou se devem passar o espectro que ocupam para alguma outra atividade".

Friday 13 January 2012

Projeções de segurança para 2012

As falhas de segurança ainda são noticiadas e a sofisticação dos ataques virtuais atuais é cada vez mais complexa, obrigando empresas de todos os tamanhos a reavaliar suas estratégias de gerenciamento de risco à luz das tendências de tecnologia emergentes e dos requisitos de conformidade.

A partir das suas pesquisas e do feedback de clientes, a Check Point acredita que as empresas devem passar por algumas mudanças interessantes em 2012:

• Hackers e empresas focados em segurança móvel
A computação móvel é um meio comum para a comunicação corporativa, e os administradores estão começando a aceitar essa tendência. Mas, os administradores de TI estão sofrendo para garantir a segurança de um número crescente de dispositivos e sistemas operacionais conectados à rede empresarial, além de estabelecer as políticas adequadas de acesso à rede e acesso móvel. De acordo com uma pesquisa da Check Point, 78% das empresas alegam que o número de dispositivos pessoais conectados à sua rede corporativa duplicou em dois anos, e 63% acreditam que essa tendência está ligada ao aumento de incidentes de segurança.

• Popularidade dos códigos QR
Recentemente, mais comerciantes e publicitários começaram a usar os Códigos de QR (Resposta Rápida) para incentivar usuários a lerem códigos de barras com seus celulares e descobrirem mais informações sobre o produto. A Check Point prevê maior popularidade para essa tendência, mas os usuários devem estar atentos para códigos QR que possam ocultar algum perigo. Com uma simples leitura do seu smartphone, um hacker pode explorar um código QR, redirecionando o usuário para um endereço, arquivo ou aplicativo malicioso.

• Aumento dos ataques de inteligência humana e da engenharia social


Em 2012, os hackers devem procurar outras formas de invadir uma empresa atingindo as pessoas.

Uma pesquisa da Check Point revelou que a principal motivação dos ataques de engenharia social é o ganho financeiro (51%), seguida por acesso a informações proprietárias (46%), vantagem competitiva (40%) e vingança (14%), e que podem custar entre US$ 25 mil e US$ 100 mil por evento. É preciso combinar a tecnologia e aumentar a conscientização da segurança em toda a empresa para evitar ataques de engenharia social.

• O Malware se torna um grande negócio
Hoje, quanto vale ser um hacker? Os criminosos virtuais não são mais amadores isolados. Eles pertencem a organizações bem estruturadas que parecem células de terroristas – com dinheiro, motivação e objetivos. Eles podem dispor de muita inteligência, tempo e recursos para criar botnets que podem causar milhões em prejuízos. Geralmente, os hackers não atacam um alvo a menos que valha a pena – e, quase sempre, nem se dão o trabalho se o ataque não for rentável.

• Botnets que agem como porta de fundos das empresas
No ano que vem, os botnets serão uma das ameaças de segurança de rede mais relevantes para as empresas. Eles são usados pelos hackers para dominar computadores e realizar atividades ilegais e perigosas, como o roubo de dados, o acesso a recursos de rede não autorizados, ataques de Negação de Serviço (DoS) ou envio de spam.

Antigamente, presumia-se que a maioria dos botnets mais bem sucedidos usavam máquinas com Windows, o que não é mais verdade - os sistemas Linux e Mac não são mais imunes. Em 2012, os botnets devem evoluir e usar uma combinação de engenharia social e explorações de dia zero, além de aproveitar da proliferação de dispositivos móveis e redes sociais. Além disso, novas variações de botnets poderão operar em diversas plataformas, e invadores baseados em sistemas operacionais da Apple, Android e outros sistemas móveis devem aparecer quando se comunicam com os servidores de Comando e Controle (C&C) por meio de redes Wi-Fi ou 3G.

• Migração para o IPv6
O grupo de endereços não alocados de IPv4 está diminuindo rapidamente, e o último bloco de IPv4 da Autoridade de Números Atribuídos ICANN (IANA) foi distribuído em 31 de janeiro de 2011. O IPv6 está começando a se difundir. Em termos da sua arquitetura, o IPv6 apresenta seus próprios desafios de segurança, incluindo trechos do protocolo diferentes do IPv4, além dos mecanismos de transição usados para sua implementação. Com a migração para o IPv6 durante o ano que vem, as empresas devem considerar o que será necessário para realizar essa transição com segurança.

• Virtualização como defesa de segurança
Antigamente, a virtualização era usada para consolidar servidores e recursos de TI para reduzir custos, espaço e energia, e desde então muitos outros usos e aplicativos foram descobertos. As empresas estão começando a aproveitar das tecnologias de virtualização como uma nova camada de defesa de segurança. Com o Check Point Go ou WebCheck, por exemplo, é possível proteger a rede e os terminais de empresas com uma tecnologia única de virtualização de navegador que separa e protege os dados corporativos da Internet – dessa forma, o usuário pode navegar completamente protegido contra downloads direcionados, tentativas de phishing e malware.

• A emergência dos bots sociais
Um bot social é um programa de computador que controla uma conta em uma rede social específica, e é capaz de realizar atividades básicas, como publicar uma mensagem ou enviar uma solicitação de amizade. O sucesso de um bot social se baseia em sua habilidade de imitar o ser humano, criando um tipo de malware único. Caso um usuário aceite a solicitação de amizade de um bot social, ele consegue acessar o círculo desta pessoa e suas informações que podem ser usadas para fraudar sua identidade. Muitos usuários inteligentes possuem diversas contas de redes sociais integradas em uma só, a sincronização de contas múltiplas pode representar uma oportunidade para os bots de realizar um ataque e atingir públicos diferentes ao mesmo tempo.

• Grandes eventos realizados em 2012 devem incentivar mais riscos de segurança baseados em SEO
Durante o ano que vem, consumidores e empresas devem estar preparados para enfrentar um grande número de Ataques tipo SEO a partir do maior número maior de cliques em sites maliciosos. Os hackers tendem a explorar eventos anuais específicos, como a ‘Cyber Monday’ ou a Temporada de Impostos, que convencem os usuários a clicar em links maliciosos em sites e aplicar fraudes de phishing. Em 2012, o mundo deve estar preparado para uma enxurrada de manchetes e propagandas voltadas para os grandes eventos do ano. O ano de 2012 não será nenhuma exceção, e veremos hackers tentando explorar termos de busca comuns baseados em manchetes se propagando através de motores de busca e redes sociais. As empresas devem reforçar as proteções necessárias e garantir a implementação de proteções de Aplicativo e Filtro de URL para evitar esses riscos.

As empresas já enfrentam as ameaças tradicionais da Internet e agora precisam lidar com os problemas de segurança da Web 2.0, dispositivos móveis e a computação em nuvem. A maior complexidade da TI está mudando o conceito de segurança e incentivando as empresas a alinhar a segurança com as necessidades do seu negócio.

Tomer Teller, pesquisador de segurança e evangelista da Check Point Software.

Os 8 F's do insucesso das lojas virtuais

O negócio virtual é tão ou mais real do que qualquer outro negócio e oferece certos riscos de investimentos. Infelizmente no Brasil, 60% das lojas virtuais fecham antes de completar um ano de vida. Por que isso acontece e como evitar? Conhecendo as respostas, a chance de sucesso aumentará muito. Por isso é importante conhecer os motivos principais que levam a decadência, chamados por mim de os 8F’s do insucesso:


1 – Falta de Planejamento: Planejar nunca foi uma atividade muito bem exercida pelo empreendedor brasileiro, talvez seja esse o motivo do SEBRAE apontar um insucesso na casa dos 53% para as micro e pequenas empresas nos 3 primeiros anos de vida. É impossível almejar o sucesso sem o planejamento prévio. A ferramenta mais importante nesse planejamento é o "plano de negócio", o pontapé inicial que deve ser dado respondendo as seguintes questões: O que vou vender? Quem vai montar minha loja? Quem é o meu concorrente? Quanto gastarei para iniciar o negócio?


2 – Foco no Mercado: Não tente vender de tudo, deixe isto para as grandes lojas. Lembre-se que a internet é um mercado totalmente diferente de uma loja física e que seu público é infinitamente maior. Procurar se especializar em um segmento específico é o começo. Na internet uma pequena fatia de mercado representa milhões de consumidores, basta ter "foco".


3 – Falta de mão de obra qualificada: Não basta saber navegar na internet, é importante conhecer minimamente o "gerenciamento de e-commerce": marketing digital, ferramentas de otimização, monitoramento de trafego. Estes três itens são básicos e essenciais.


4 – Falha na divulgação: Para dar um pequeno exemplo, imagine uma loja em rua movimentada, cheia de produtos nas prateleiras e com portas fechadas. Uma loja virtual sem divulgação é igual, ninguém consegue ver e portanto ninguém irá comprar. Aqui entra em ação o "planejamento de marketing e divulgação", para otimizar o site nos mecanismos de busca, natural ou patrocinado, apoio em redes sociais, divulgação em outros sites, assessoria de imprensa, etc.


5 - Falta de Planejamento Logístico: Um assunto delicado que acaba rendendo 80% dos desconfortos e demandas jurídicas entre a loja e o consumidor. Sabendo-se deste fato, é bom fazer um planejamento de maneira delicada e detalhada do seu sistema de lojística.


6 - Fraude: A fraude, principalmente na venda com cartões de crédito, poderá acarretar grande prejuízo à loja virtual, levando ao seu fechamento, além de acabarem devendo às operadoras em função de antecipações negativadas em suas contas. Portanto, não é bom arriscar neste campo minado. Utilize portais especializados em pagamentos com sistema antifraude conferindo grande segurança nas transações.


7 - Falta de Monitoramento: Muitas lojas acabam fracassando, pois a sua administração não consegue ou não sabe visualizar o que esta ocorrendo em termos de análise de acessos, resultados de campanhas e marketing. Acabam tomando decisões - na maioria das vezes erradas - baseadas em suposições. Sendo assim, a web análise é uma ferramenta importantíssima no mundo virtual, sendo primordial que o web empreendedor se familiarize com o "Google Analytics" ou algum outro similar.


8 - Falha no Atendimento: Muito se fala em atendimento - e deveria se falar muito mais - e a sua loja pode ser virtual, mas o seu cliente é real e necessita de atendimento. Seu cliente precisa saber exatamente o que esta acontecendo com o seu pedido de compra, seu site precisa ter um bom canal de comunicação com o cliente e transmitir a este credibilidade.

* Arnaldo Korn é diretor presidente do portal Pagamento Já

Thursday 12 January 2012

Segurança Interna dos EUA vigia Twitter e mídias sociais

O Departamento de Segurança Interna (DSI) dos Estados Unidos monitora rotineiramente dezenas de sites populares, entre os quais Facebook, Twitter, Hulu, WikiLeaks e sites de notícias e fofocas como o Huffington Post e o Drudge Report, de acordo com um documento do governo norte-americano.

Uma "revisão de normas de privacidade" divulgada pelo DSI em novembro informa que, pelo menos desde junho de 2010, seu centro de operações nacionais vem operando uma "capacidade de mídia/redes sociais", que envolve monitoração regular de "fóruns on-line abertos ao público, blogs, sites públicos e listas de discussão abertas".

O propósito da monitoração, de acordo com o documento do governo, é "recolher informações usadas para formar um quadro de situação e estabelecer um panorama operacional comum".

O documento acrescenta, usando terminologia mais clara, que essa monitoração ajudou o DSI e as diversas agências a ele subordinadas, entre as quais o Serviço Secreto e a Agência Federal de Administração de Emergências, a administrar a reação do governo a eventos como o terremoto de 2010 no Haiti e suas consequências, e controles de segurança e fronteira relacionados à Olimpíada de Inverno de 2010, em Vancouver, Colúmbia Britânica.

Um funcionário do DSI que conhece bem o programa de monitoração afirma que sua intenção é apenas a de permitir que o pessoal do centro de comando acompanhe as diversas mídias da era da Internet para que esteja ciente de acontecimentos em curso aos quais o departamento ou suas agências podem ter de responder.

O documento que delineia o programa de monitoração informa que todos os sites monitorados pelo centro de comando são "abertos ao público e... todo o uso de dados publicados via sites de mídia social se destina apenas a oferecer um conhecimento de situação mais preciso, um panorama operacional mais completo, e informação mais oportuna às autoridades decisórias".

O funcionário disse que, sob as regras do programa, o departamento não mantém normas permanentes do tráfego monitorado. Mas os documentos que revelam os contornos do programa afirmam que o centro de operação "reterá dados por não mais de cinco anos".

O esquema de monitoração envolve também uma lista de cinco páginas, que consta como anexo do documento de revisão, sobre sites que o centro de comando do DSI planeja monitorar.

Terroristas estão usando o Facebook para obter informações estratégicas

Já dizia o ditado: cuidado com o amigo da onça. Esta pode ser uma boa definição para o futuro das redes sociais já que, de acordo com um pesquisador israelense, devemos ter cuidado com nossos amigos no Facebook. O motivo? Organizações terroristas internacionais têm voltado seus olhos para as redes sociais como uma forma de conseguir apoio, e até criado perfis falsos para monitorar grupos estratégicos ou pessoas importantes.


Gabriel Weimann, professor da Universidade de Haifa (Israel), afirma que 90% do terrorismo organizado na internet se manifesta através de sites como Twitter, YouTube, MySpace, salas de bate-papo e outros voltados para as mídias sociais, e que alguns desses grupos já estão infiltrados na rede criada por Mark Zuckerberg.
Com isso, as organizações podem ganhar novos membros, independentemente da localização geográfica.


Segundo informações dos sites TG Daily e ZME Science, os criminosos usam esses sites para coletar informações importantes sobre as ações de seus inimigos. Um exemplo disso é o grupo terrorista Hezbollah, que monitora constantemente a página do exército israelense no Facebook.


Países como Estados Unidos, Canadá e Reino Unido já ordenaram que seus respectivos soldados removessem dados pessoais de seus perfis na maior rede social do mundo, enquanto o governo investiga e acompanha casos específicos.


"O Facebook se tornou um ótimo lugar para obter informações secretas. Muitos usuários não se incomodam em virar 'amigo' de algum desconhecido, nem para quem eles estão fornecendo acesso a dados de sua vida pessoal", explica Weimann.


Além disso, o professor israelense acredita que as redes sociais são uma boa oportunidade de compartilhar "segredos profissionais", como a troca de postagens sobre como criar bombas, por exemplo.

Wednesday 11 January 2012

Tarifas dos bancos brasileiros estão entre as quatro menores do mundo

As tarifas que os bancos cobram no Brasil para fazer a manutenção da conta estão entre as mais baratas do mundo e só perdem para as instituições financeiras da Índia, México e França, segundo um estudo divulgado pela consultoria Accenture nesta quarta-feira (11).


Enquete: é caro manter conta em banco?


O levantamento levou em conta os preços cobrados por bancos de 15 países - Argentina, México, EUA, França, Inglaterra, Alemanha, África do Sul, Índia, Rússia, Turquia, Japão, Hong Kong, Singapura e Austrália. Foram considerados os dois maiores bancos por volume de receita de cada país, com exceção do Brasil onde foram pesquisados sete bancos.


Os brasileiros gastam no mínimo R$ 27,70 e, no máximo, R$ 59,90 com a manutenção da conta todos os meses. 
Já o pacote básico de serviços, que reúne oito saques, quatro extratos por mês, dois extratos do mês anterior e quatro transferências entre contas da mesma instituição, custa de R$ 11 a R$ 16 no país.

O estudo mostrou ainda que os clientes bancários brasileiros não estão completamente satisfeitos com os serviços, já que estão “mais propensos a experimentar serviços de outras instituições”.

Segundo a consultoria, entre 36% e 43% dos correntistas mudaram de banco em 2011 e 7% pretendem mudar em breve.


Outro aspecto importante da pesquisa é a “bancarização” da classe média brasileira. Responsável por 30% do consumo no Brasil, quase metade da classe C brasileira possui contas bancárias e 53% têm um cartão de crédito.

Mais de 18 mil telefones foram monitorados em outubro de 2011

Como resultado de decisões judiciais, foi possível monitorar pelo menos 18.050 linhas telefônicas no Brasil em outubro de 2011.

Também com autorização judicial, foram interceptados 204 e-mails e 673 linhas telefônicas que utilizam voz sobre protocolo de internet (VOIP).

Os dados são do Sistema Nacional de Interceptações Telefônicas e foram divulgados nesta terça-feira pelo Conselho Nacional de Justiça (CNJ). São os próprios tribunais que atualizam as informações do sistema.

Segundo o CNJ, as interceptações telefônicas autorizadas pela Justiça ajudaram na apuração de 3,3 mil procedimentos criminais em curso no mês de outubro.

O índice é inferior ao verificado em outubro do ano anterior. Em 2010, no mesmo mês, havia 21.508 telefones, 1.535 linhas VOIP e 354 e-mails sob monitoramento autorizado judicialmente. Segundo o CNJ, 3,6 mil processos foram beneficiados com informações colhidas nas interceptações telefônicas da época.

© 1996 - 2012. Todos direitos reservados a Infoglobo Comunicação e Participações S.A. Este material não pode ser publicado, transmitido por broadcast, reescrito ou redistribuído sem autorização.

Tuesday 10 January 2012

Em um ano arrecadação com impostos em telecom subiu 6,6%, diz Telebrasil

Os usuários de serviços de telecomunicações pagaram até o terceiro trimestre de 2011, R$ 34,2 bilhões em impostos, de acordo com levantamento realizado pela Telebrasil.

O total de impostos pagos em 2011 até o terceiro trimestre é 6,6% superior ao mesmo período do ano anterior, quando foram recolhidos aos cofres públicos R$ 32,1 bilhões em tributos sobre os serviços. Esse recolhimento não inclui os impostos incidentes sobre a atividade econômica das prestadoras.

De acordo com a associação, esse volume de impostos é resultado de uma alta carga tributária que representa em média 43% dos preços dos serviços de telecomunicações, penalizando principalmente a população de faixas de renda mais baixas, que paga as mesmas alíquotas de impostos.

Do montante de tributos arrecadados de janeiro a setembro de 2011, mais de R$ 23 bilhões foram de ICMS, o que corresponde a 11% do total recolhido pelos Estados com o imposto.

SOPA: What if Google, Facebook and Twitter Went Offline in Protest?

Can you imagine a world without Google or Facebook? If plans to protest the potential passing of the Stop Online Piracy Act (SOPA) come to fruition, you won’t need to; those sites, along with many other well-known online destinations, will go temporarily offline as a taste of what we could expect from a post-SOPA Internet.

Companies including Google, Facebook, Twitter, PayPal, Yahoo! and Wikipedia are said to be discussing a coordinated blackout of services to demonstrate the potential effect SOPA would have on the Internet, something already being called a “nuclear option” of protesting. The rumors surrounding the potential blackout were only strengthened by Markham Erickson, executive director of trade association NetCoalition, who told FoxNews that “a number of companies have had discussions about [blacking out services]” last week.

According to Erickson, the companies are well aware of how serious an act such a blackout would be:

This type of thing doesn’t happen because companies typically don’t want to put their users in that position. The difference is that these bills so fundamentally change the way the Internet works. People need to understand the effect this special-interest legislation will have on those who use the Internet.

The idea of an Internet blackout should seem familiar to anyone who’s been paying attention to the debate so far. In addition to a blackout already carried out by Mozilla, hacking group Anonymous proposed the same thing a couple of weeks ago, suggesting that sites replace their front pages with a statement protesting SOPA. That suggestion itself came a week after Jimmy Wales had asked Wikipedia users about the possibility of blacking out that site in protest of the bill.

(MORE: ‘Anonymous’ Blacks Out the Internet in Response to SOPA Debate)

As a way of drawing attention to the topic, it’s something that will definitely work. Just Google alone going dark would cause havoc online, but the idea of it happening at the same time as Facebook, Twitter et al. follow suit seems almost unimaginable.

The question then becomes how to translate the inevitable confusion and outrage from those who don’t know what SOPA is into activism. The key, I assume, lies in the execution of the blackout: Will the sites that voluntarily go down be entirely unavailable or will they follow the Anonymous-proposed model of replacing the front page with a statement explaining what is going on, why and how users can best become involved in the discussion? If the sites do go entirely dark, is the hope that the resulting outrage will be enough to fuel news stories about the reason behind the decision? And that users will not transfer their frustration to the sites themselves, as opposed to the bill they’re protesting?

The fact that Facebook and Twitter are both said to be considering taking part in the blackout is simultaneously heartening and worrying. The former because, well, they’re standing up for what they collectively believe in — and that’s a good thing. But the latter because the lack of availability for social media on the proposed blackout day feels like it’s giving up the best chance to harness the frustration and energy people will feel about the temporary loss of the Internet as they know it, and a great possibility to focus and direct that energy into productive activism against SOPA. Then again, it may take losing Facebook and Twitter to really drive home how dramatically SOPA could affect the Internet.

All of this may come to nothing, of course. The companies may decide not to black out their sites and find other ways to protest SOPA. That could be for the best; collectively closing down the most trafficked sites on the Internet to prove a point will certainly garner a lot of attention, but the effects it’ll have beyond that (and the reactions it’ll cause as a result) are difficult to predict and could easily end up causing a backlash against the sites responsible at a time when they least want it. But still … just try to imagine an Internet without Google, Facebook or Yahoo. Even for a day. Almost makes you want it to happen, just to make people realize how reliant we are on the Internet as we know it now, doesn’t it?

MORE: Sorry, Folks: Game Publishers Didn’t ‘Drop’ SOPA Support

Graeme McMillan is a reporter at TIME. Find him on Twitter at @Graemem or on Facebook at Facebook/Graeme.McMillan. You can also continue the discussion on TIME’s Facebook page and on Twitter at @TIME.

Related Topics: Anonymous, mozilla, paypal, SOPA, Stop Online Piracy Act, wikipedia, Yahoo, Companies, Facebook, Google, Reviews & Features, Social Unrest, Twitter

Read more: http://techland.time.com/2012/01/05/sopa-what-if-google-facebook-and-twitter-went-offline-in-protest/#ixzz1j551KNVZ

Friday 6 January 2012

Edital de 2,5 GHz deve ir a consulta ainda em janeiro

A consulta do edital de 2,5 GHz deve sair em janeiro.

"Segundo o Zerbone (Rodrigo Zerbone, relator da matéria) me disse, isso deve ser votado já na primeira reunião do dia 19", disse a esse noticiário João Rezende, presidente da Anatel. E ele chama a atenção para um aspecto importante do cenário competitivo. " Acho que uma das grandes disputas na faixa de 2,5 GHz será justamente pela faixa central de 35 MHz nas cidades onde não tem MMDS", diz ele, inspirado pelos movimentos recentes da Sky, que comprou a empresa de MMDS Acom e anunciou no final do ano passado a oferta de banda larga por uma rede TD-LTE em Brasília.

Devoluções

Soma-se a essa leitura de João Rezende um outro aspecto importante: o edital deverá manter o limite (cap) de no máximo 60MHz por grupo na faixa de 2,5 GHz. Isso deve forçar, segundo analistas de mercado, a um movimento de devolução de espectro por parte de quem já tem licenças de MMDS. Isso atinge a Telefônica, em São Paulo, Rio de Janeiro, Curitiba e Porto Alegre, e também a Claro, já que a Net Serviços (do mesmo grupo) tem MMDS em Porto Alegre, Curitiba e Recife.

Se estas empresas abrirem mão dos 50 MHz na faixa do MMDS (que só podem ser utilizados para tecnologias TDD) para poderem disputar a faixa ampla de 4G com os 40 MHz que estão sendo oferecidos, a Anatel deverá licitar 35 MHz a mais nessas cidades, o que pode abrir espaço para a Sky ou outra operadora ampliar sua cobertura nessas localidades utilizando a faixa de TDD.

Para Rezende, no leilão de 2,5 GHz a expectativa é que haja competição, mesmo com o leilão da faixa de 450 MHz, que "é realmente uma faixa cara", segundo Rezende, acontecendo paralelamente.

"Vamos fazer o leilão de maneira separada, ofertando o 450 MHz antes e depois juntamos no edital de 2,5 GHz, se não houver interessado". Mas Rezende acha pouco provável que as empresas tentem furar o leilão, não participando da disputa.

Não vejo risco de alguém boicotar o leilão, porque se um entrar na disputa, leva, e tenho certeza que tem gente que vai disputar", diz o presidente da Anatel.

Aplicativo móvel elimina a utilização de login e senha para acessar e-mails

O provedor Mandic lança no mercado o mandic:eService, solução que elimina a necessidade do usuário de inserir login e senha para acessar a conta de e-mail, propiciando maior segurança nos dados e informações.

Desenvolvido para dispositivos móveis, ele atua de forma simples. O usuário cadastra a conta de e-mail e sempre que quiser acessá-lo, o aplicativo gera uma URL única na plataforma móvel, que deve ser digitada no navegador de Internet, dispensando assim a inserção de login e senha. Além disso, para levar mais segurança, ainda dentro do aplicativo, o usuário deverá confirmar a solicitação e liberar o acesso. Caso negado, a URL é instantaneamente bloqueada.

Segundo Jéferson Castilhos, gerente de marketing da Mandic, o serviço é uma iniciativa diferente de tudo o que já foi visto no mercado mundial em se tratando de segurança.

“O mandic:eService chega para matar a utilização de login e senha. Estamos possibilitando um ambiente de e-mail livre de ameaças, onde o usuário não precisa se preocupar a partir de qual computador ele acessa. Basta que ele gere pelo celular uma URL única e navegue tranquilamente. É uma solução perfeita para acesso a e-mails corporativos fora do escritório”, afirma.

A solução é gratuita e está disponível para tablets e smartphones com os sistemas operacionais iOS e Android. O serviço é compatível com os servidores de e-mail da Mandic, tanto para o corporativo quanto para pessoa física. Para criar uma conta, que pode ser gratuita, basta se cadastrar no endereço: http://www.mandic.com.br/index.php/eservice/

Tuesday 3 January 2012

Google, Facebook e Amazon podem interromper acessos em protesto

O Google, o Facebook e a Amazon podem interromper seus serviços coordenadamente em protesto contra uma lei antipirataria que está em discussão no Senado norte-americano, de acordo com o site da Fox News.

Chamada de SOPA, sigla para Stop Online Piracy Act (pare com a pirataria on-line, em, tradução), a lei tem reforço de representantes da indústria de cinema e de música do país que querem evitar a perda de vendas de seus produtos distribuídos gratuitamente na web. O projeto responsabiliza os sites pelo conteúdo publicado ou distribuído ilegalmente pelos usuários, sugerindo que as empresas encontrem meios para impedir a pirataria. As penas incluem fechamento do site e até cinco anos de prisão.

Disney, Universal, Paramount e Warner Bros., grandes estúdios de Hollywoodm, apóiam a lei, enquanto Google, Amazon, Facebook, eBay, Twitter,PayPal, Zynga, Mozilla, entre outras, são contra.

O diretor da NetCoallition, uma associação das empresas da internet contra a lei, Markham Erickson, afirmou que a Mozilla, que desenvolve e distribui o browser Firefox, já desligou seus servidores durante um dia e que outras empresas como a Wikimedia, responsável pelo Wikipédia, pensa em fazer o mesmo.

Caso o serviço destes sites seja interrompido, os usuários não poderão fazer pesquisas no Google, atualizar o Facebook ou publicar mensagens no Twitter, por exemplo. No lugar das páginas, segundo Erickson, apareceriam mensagens contra a lei. "As pessoas precisam entender o impacto destas medidas pois estas normas mudam o modo como se usa a internet".

Há alguns dias, 40 mil sites retiraram seus serviços do provedor GoDaddy após a companhia afirmar que apoia o SOPA. A NetCoallition publicou uma carta em novembro relatando os perigos da aprovação da lei. Até Sergey Brin, cofundador do Google se manifestou: "Embora eu entenda o objetivo da proposta de reduzir a pirataria on-line, mas estou surpreso que quem cria nossas leis poderia contemplar estas medidas que nos colocariam ao lado das nações mais opressivas do mundo."

Ministério da Justiça publica cartilha sobre proteção de dados pessoais

Ao apagar das luzes de 2011, o Departamento de Proteção e Defesa do Consumidor (DPDC) do Ministério da Justiça, lançou por meio da Escola Nacional de Defesa do Consumidor a segunda edição do caderno de investigações científicas “Proteção de Dados Pessoais: Para além da Informação Creditícia”. A publicação tem como objetivo subsidiar a reflexão sobre a titularidade do consumidor sobre seus próprios dados pessoais.

O lançamento ocorre no momento em que a sociedade brasileira discute a edição de um marco regulatório sobre proteção de dados pessoais. Um anteprojeto de Lei sobre a matéria passou por debate público em 2011 e contou com mais de 800 contribuições da sociedade. A publicação de uma nova versão do projeto, incluindo boa parte dessas contribuições, é aguardada para o início deste ano.

A publicação do DPDC discute a necessidade de proteção dos dados de consumidores nas diversas situações em que seus dados pessoais são coletados e utilizados. “A discussão sobre proteção de dados é necessária porque há uma nova situação de vulnerabilidade do consumidor diante do comércio eletrônico, da publicidade comportamental e até das redes sociais, por exemplo”, comenta o coordenador-geral de Supervisão e Controle do DPDC, Danilo Doneda.

Sem dúvida, estamos vivenciando a distopia do megamercado, onde o conceito de privacidade começa a mudar radicalmente. Onde como bem disse o jornalista e mestre em comunicação Gustavo Gindre, em um dos primeiros seminários sobre proteção de dados que assisti, funções que até então eram do estado passaram a ser assumidas pelas empresas que, por sua vez, têm uma necessidade brutal de consumir informações e controlar informações que fazem girar o mercado na forma do consumo.

Sem que percebessemos claramente, o conhecimento, a psicologia, deixaram de ser os da massa e passaram a ser o de cada indivíduo, seus gostos, seus desejos, etc, para gerar um produto para cada um desses gostos, desses sujeitos específicos.

O grande problema é que enquanto temos uma prevenção muito grande contra o estado totalitário, e devemos ter e é justificável que a tenhamos, temos muito poucos anticorpos sociais para esse mesmo papel totalitário quando ele é exercido pelas empresas.

A Internet possibilitou o advento do que Gustavo Gindre denomina de “mercado secundário de dados”, que já começa a movimentar recursos consideráveis. A empresa BlueKai, que se anuncia como uma bolsa de valores de dados, seja talvez o melhor exemplo deste fenômeno. Ela recolhe dados de fornecedores como a Nielsem, e os vendes, a partir de determinados perfis definidos pelo comprador da informação.

As formas como essas informações passam a ter utilidade são bastante preocupantes. Uma seguradora pode, através do conhecimento do perfil de consumo de um cliente, definir o risco potencial de risco de vida para defnir preços para um mesmo perfil de idade, etc.

Quais as salvaguardas para o cruzamento exponencial de informações nesse mercado secundário de dados? Qual o tratamento que será dado ao dado, quem dará esse tratamento e para que finalidade? Como fechar a porta para que dados sensíveis possam parar no mercado secundário de dados, trocados como moedas?

Muitas dessas questões foram levantadas durante a consulta pública sobre o anteprojeto de Lei de Proteção de Dados Pessoais. E algumas delas são abordadas na publicação, que será utilizada pela Escola Nacional de Defesa do Consumidor em suas oficinas e cursos para o Sistema Nacional de Defesa do Consumidor, coordenado pelo DPDC e composto por Procons, Ministério Público, Defensoria Pública e entidades civis de Defesa do Consumidor. O primeiro curso será realizado em março de 2012.

Convém acompanhar de perto as discussões. Sobretudo aquelas que definirão se a compra e venda de dados será autorizada. E de que dados. Que informações sobre nós correm o risco de virar uma commodity. E quais devem ser públicas. É preciso evitar que os operadores do mercado secundário de dados passem a gerar antídotos e esses mesmos mercados secundários e, portanto, passem a ganhar nas duas pontas, ao vender e a impedir que os dados sejam vendidos.

PS: O Ministério da Justiça marcaria um golaço se colocasse o PDF da cartilha disponível para download no site da Escola Nacional de Defesa do Consumidor, não acham?

Monday 2 January 2012

Pesquisa: metade das PMEs acredita estar imune contra ciberataques

A Symantec anuncia os resultados da sua Pesquisa 2011 sobre Conscientização das PMEs em Relação a Ameaças, que revelou que, ainda que o nível de conscientização seja elevado, as pequenas e médias empresas (PMEs) não se vêem como alvos de ciberataques. Consequentemente, elas não implementam as proteções adequadas para suas informações.

A pesquisa examinou os níveis de conscientização das pequenas e médias empresas (PMEs) sobre os perigos das ameaças à segurança e quanto elas estão preparadas para se defender contra eles. Foram entrevistadas 1.900 organizações em todo o mundo, incluido o Brasil.

"Nossa pesquisa mostra que as PMEs são bem vulneráveis a ataques cibernéticos e que é mais importante do que nunca que elas tomem medidas para manter suas informações seguras. Mesmo com orçamentos apertados e recursos limitados, mudanças simples, como educação e boas práticas, podem reforçar significativamente o perfil de segurança das PMEs em relação aos ataques cibernéticos", afirma Steve Cullen, vice-presidente sênior de marketing mundial para PMEs e cloud da Symantec Corp.

Destaques da pesquisa

· As PMEs estão familiarizadas com as ameaças à segurança

A pesquisa mostrou que mais de metade das PMEs está familiarizada com as diferentes ameaças à segurança dos negócios, incluindo ataques direcionados, registro de digitação e os riscos que vêm com o uso de smartphones nos negócios da empresa. Mais da metade (54%) afirmou que o malware pode causar perda de produtividade, e 36% reconheceram que os hackers podem ter acesso a informações confidenciais. Além disso, os entrevistados disseram que um ataque direcionado poderia afetar os negócios. 46% afirmaram que um ataque direcionado também causaria perda de receita, e 20% disseram que poderia afastar clientes.

· As PMEs não se vêem como alvos

Surpreendentemente, embora conheçam o perigo dos ciberataques, as PMEs não se sentem em risco. Na verdade, 50% das PMEs entendem que, por serem de pequeno porte, não estão em perigo – acham que são principalmente as grandes empresas que têm que se preocupar com ataques. Isso contradiz diretamente as evidências. De acordo com dados da Symantec.cloud, desde o início de 2010, 40% de todos os ataques foram dirigidos a empresas com menos de 500 funcionários, em comparação com apenas 28% dirigidos a grandes companhias.

· PMEs não estão tomando nenhuma medida

Por não se verem como alvo, muitas das PMEs não estão tomando as precauções básicas para proteger suas informações. Enquanto dois terços restringem as pessoas que têm informações de login, impressionantes 63% não protegem as máquinas usadas para serviços bancários online e 9% não tomam precauções extras para os mesmos serviços. Mais da metade (61%) não usa antivírus em todos os desktops, e 47% não contam com segurança para servidores/serviços de correio eletrônico.

Recomendações

Para manter seguras as informações corporativas confidenciais, existem três práticas simples que as PMEs podem seguir para se protegerem contra ciberataques:

· Oriente os funcionários - Desenvolva orientações sobre segurança da Internet e treine os funcionários a respeito do tema e sobre as ameaças mais recentes. Parte do treinamento deve se concentrar na importância de mudar as senhas regularmente e proteger os dispositivos portáteis.

· Avalie seu status de segurança - As PMEs enfrentam maiores riscos em relação às suas informações confidenciais, por isso é fundamental contar com proteção. A violação de dados pode significar a ruína financeira para uma pequena ou média empresa. Identifique o que você precisa proteger. É importante entender os riscos e falhas de segurança para que você possa tomar medidas para proteger as informações.

· Aja - Seja proativo e desenvolva um plano de segurança. Considere itens como políticas para senhas, proteção de endpoints, criptografia, segurança de e-mails e ativos da Web. Você também deve avaliar o que seria melhor para atender às necessidades de sua organização, serviços locais ou hospedados.
Para ter acesso ao estudo completo, clique aqui (em inglês).