Friday 30 March 2012

Por que proteger os dados pessoais e os corporativos?

Nunca se ouviu nem se falou tanto sobre perda e/ou vazamento de dados quanto nos últimos anos. Esse tema tem obtido, cada vez mais, audiência nos meios de comunicação nacionais e internacionais.

O jornal britânico Financial Times, por exemplo, publicou que um cientista da DuPont baixou 22 mil documentos sigilosos quando se preparava para assumir um cargo em um concorrente, já o norte-americano The Wall Street Journal repercutiu o episódio ocorrido na ChoicePoint, obrigada a pagar 15 milhões de dólares por violação de dados. Esses fatos refletem o impacto causado pela perda de dados nas organizações.

Pesquisas de mercado* indicam que 80% dos Chief Information Security Officer (CISOs) consideram os funcionários a maior ameaça aos dados nas empresas. As análises indicam ainda que 73% das violações de dados são causadas por fontes internas. Outros 77% não conseguem auditar nem quantificar as perdas após uma violação de dados. Esses dados demonstram a preocupação das empresas com a proteção das informações, bem como o desafio de protegê-las.

Outros fatores de preocupação são o crescimento exponencial das ameaças virtuais e a mudança de comportamento devido às novas tecnologias. Hoje os dispositivos já não são de uso apenas pessoal ou somente profissional. Esses equipamentos são mais do que extensões da estrutura tecnológica; eles são extensões do usuário. A maneira como os usuários interagem com os dados pessoais reflete a forma como eles pensam que podem interagir com os dados corporativos.

Os desafios que englobam a proteção de dados incluem desde o cumprimento de leis e normas até uma comunicação segura e de mão dupla na relação comercial entre empresas e consumidores (B2B e B2C) para garantir a proteção dos dados sigilosos e da propriedade intelectual. Entretanto, é importante ressaltar que o trabalho da área de segurança de Tecnologia da Informação (TI) consiste, em boa parte, em proteger os dados da companhia.

As empresas têm se deparado com mais regulamentações de informações confidenciais devendo atender a diversas leis, bem como reduzir os custos de auditoria e a proteger a reputação da organização. As companhias precisam apoiar o uso seguro e flexível dos dados em seus negócios e ainda permitir uma comunicação segura (B2B e B2C), a proteção de dados sigilosos e da propriedade intelectual.


Por isso a indústria da segurança da informação tem investido em pesquisas e no desenvolvimento de novas e mais abrangentes tecnologias que permitam a proteção dos dados, como as soluções de Data Loss Prevention (DLP), prevenção de perda de dados, que auxiliam as empresas a impedir a perda e o roubo de arquivos confidenciais.

Os sistemas de DLP que oferecemos permitem uma abrangência de proteção, por exemplo, a monitoração de dados em movimento, checando os que são copiados pela rede e enviados, via Internet ou e-mail, para outros dispositivos.

Ao adotar esses sistemas, também é possível que as empresas protejam-se contra a fuga de informação de todos os vetores em um terminal (endpoint), como copiar telas (print screen), efetuar cópias para dispositivos removíveis, e-mail e Internet.

Além disso, essas soluções monitoram as saídas de Internet da rede (proxies) e de servidores de e-mail, prevenindo a saída de informações confidenciais por esses vetores.

Atrelada à estratégia de proteção de dados, as organizações podem contar ainda no portfólio de produtos de DLP com sistemas que protegem as bases de dados contra ameaças externas, internas e dentro dos bancos de dados, dispensando alterações de arquitetura e alto custo do tempo de inatividade. Isso permite que as organizações incorporem a segurança de banco de dados ao seu programa geral ou à sua política de segurança e obtenham eficiência de gerenciamento com integração completa.

Para a segurança das informações, as empresas devem adotar tecnologias que proporcionem os mais altos níveis de proteção de dados e abrangência. A adoção dessas soluções e de processos para proteção de dados torna a ação das empresas fácil e eficiente. A companhia precisa conhecer a localidade e os geradores de informação confidencial, pois, sem essas premissas, ficará muito difícil implementar qualquer produto de prevenção de perda de dados.

José Roberto Antunes, gerente de Engenharia de Sistemas da McAfee do Brasil.

* Relatório McAfee Datagate. Gerado pela DataMonitor (entrevistas com 1.400 profissionais de TI no Reino Unido, nos EUA, na DR, na Alemanha e na Austrália).

Wednesday 28 March 2012

Relator do projeto do Marco Civil quer apresentar seu relatório até junho

Foi instalada nesta quarta, 28, uma comissão especial na Câmara dos Deputados para analisar o Marco Civil da Internet, elaborado pelo Poder Executivo, que tramita na casa sob o número de PL 2.126/2011. O relator do projeto na comissão, deputado Alessandro Molon (PT/RJ), quer apresentar seu parecer ainda no primerio semestre e tentar fazer com que a matéria seja votada pelo Plenário da casa antes do recesso do meio de ano. "Seria um sonho levar ao Plenário ainda no primeiro semestre", afirma. A preocupação especial do deputado pela celeridade se explica pelo fato de que no segundo semestre as atividades do Congresso diminuem bastante em função da aproximação das eleições municipais.

A constituição de uma comissão especial se dá quando um projeto interessa para mais de três comissões da casa. O parecer da comissão especial, portanto, leva o projeto diretamente para a votação ao Plenário. O mesmo rito de tramitação – votação em comissão especial e depois em Plenário – será repetido pelo Senado Federal.

Sem discriminação

"Certamente o debate que nós vamos fazer aqui vai influenciar o debate dos EUA e de outros países grandes", afirma o deputado. Se ele estiver certo, o projeto brasileiro poderá influenciar, por exemplo, o tratamento que será dado por outros países para temas delicados como a neutralidade de rede. O PL 2.126/2011 procura garantir que não haja discriminação de dados, seja por fonte, tipo ou qualquer outro critério, que circulam na Internet. "É o usuário que deve escolher o tipo de dado que ele quer consumir na Internet. Isso não pode ser substituído por um acordo comercial", afirma o deputado.

Segundo ele, o projeto estabelecerá conceitos fundamentais de liberade de expressão e de garantia dos direitos individuais que balizarão inclusive a atuação do Judiciário.

AI-5 Digital

Outro ponto importante é a definição de um ano para o tempo de guarda dos registros de conexão. Segundo o deputado, esse tempo permite que esses dados sejam utilizados em uma eventual investigação polícial e, ao mesmo tempo, não onera demasiadamente os provedores de Internet.

O tempo de guarda dos registros de conexão é um item que consta de outro Projeto de Lei em tramitação na Câmara dos Deputados, o PL 84/99, de autoria do então senador Eduardo Azeredo (PSDB/MG). A guarda de logs prevista no PL 84/99 é de três anos, o que gerou duras crírticas dos provedores de acesso. Além disso, o PL do Senador Azeredo – que tipifica crimes cometidos na Internet – enfrenta desde a sua proposição uma série de críticas, daí o fato de ser chamado de  AI-5 Digital.

Alguns deputados consideram que seria mais adequado que fosse aprovado primeiramente o Marco Civil, que trata dos direitos e deveres dos internautas, para depois o Congresso tratar dos crimes digitais. "O ideal seria que a gente primerio aprovasse o projeto dos direitos e depois o criminal", afirma deputada Jandira Feghali (PCdoB/RJ). "Estamos buscando entendimento com o deputado Azeredo sobre a questão criminal para que possamos oferecer a sociedade uma lei sem qualquer ranço de autoritarismo", reforça o deputado Paulo Teixeira (PT/SP).

A comissão será presidida pelo deputado João Arruda (PMDB/PR) e terá como primeiro vice-presidente o deputado Manoel Júnior (PMDB-PB); segunda vice-presidente, deputada Manuela D'ávila (PCdoB/RS) e terceira-vice presidente deputada Luiza Erundina (PSB/SP).

Motorola reivindica 20 MHz da faixa de 700 MHz para a segurança pública

Mais do que a destinação da faixa de 700 MHz para os serviços móveis, existe uma demanda dos órgãos responsáveis pela segurança pública tanto em âmbito nacional quanto estadual para que o governo reserve uma parcela do futuro dividendo digital para seu uso exclusivo. De acordo com a diretora de relações governamentais da Motorola Solutions, Krishna Formiga, a destinação de 20 MHz (10 MHz + 10 MHz) na faixa de 700 MHz seria suficiente para o pleno desenvolvimento das aplicações de segurança pública na faixa. "O Exército Brasileiro e as polícias militares de vários Estados estão pleiteando o uso desse espectro para a segurança pública", afirma ela.

Esse foi o tamanho da banda de 700 MHz destinada para essa finalidade pelos EUA. Krishnna explica que os EUA haviam destinado 5 MHz + 5 MHz da faixa de 700 MHz e há duas semanas decidiu-se que a banda D (5 MHz + 5 MHz) também seria destinada às aplicações de segurança pública. "No Brasil isso seria suficiente", afirma ela.
A Motorola Solutions é fornecedora de uma solução utilizada em São Francisco, na Califórnia, que é o primeiro contrato da companhia na área de segurança pública. A executiva explica que a Motorola tem uma solução  em LTE para essa área que envolve um centro de comando e controle capaz de destinar mais banda para os agentes (policiais, bombeiros etc) que estiverem em eventos críticos, além de toda a parte de hardware, como tablets, câmeras de vídeo, leitores de placas, GPS etc. A companhia tem um acordo mundial com a Ericsson, que fornece os equipamentos de transmissão.

Além da parte de segurança, a faixa de 700 MHz poderia ser usada pelos Departamentos de Trânsito no controle do tráfego urbano e na orientação de veículos como ambulâncias e viaturas sobre a melhor rota para atender determinada ocorrência, aponta a Motorola. A comunicação é criptografada e a operação pode ser feita pela própria Polícia para garantir controle total sobre a infraestrutura e os dados que por ela trafegarão, explica Krishna.

A empresa realizará neste primero semestre um teste da solução de LTE na faixa e das aplicações específicas para essa área com o Exército  em Brasília. Serão instaladas três torres que cobrirão toda a Esplanada dos Ministérios e o Centro de Comunicações e Guerra Eletrônica do Exército. A Motorola investirá US$ 2 milhões na demonstração.

Tuesday 27 March 2012

Maximização do desempenho de ativos nas concessionárias de Energia - a gestão estratégica da infraestrutura

As Concessionárias do setor elétrico enfrentam desafios crescentes relacionados ao aumento da demanda e às normas regulatórias cada vez mais exigentes. Na distribuição, por exemplo, a expansão da rede não é suficiente para lidar com as sobrecargas e solicitações de novas ligações, enquanto as redes existentes são operadas no limite, para atingir os indicadores impostos para duração, freqüência de falhas e tempos de atendimento. A pressão adicional dos acionistas exige que este esforço enquadre-se em critérios de racionalização de recursos e mitigação de riscos, obrigando as Concessionárias a repensarem a cultura organizacional e redesenharem os processos de negócios.

A visão Smart Grid[1], que já está bem consolidada em todo o mundo como uma abordagem essencial para evitar o colapso dos sistemas atuais de energia elétrica, tem como um de seus pilares o monitoramento contínuo e detalhado da condição dos ativos, que ao fornecer os dados necessários para o aumento da disponibilidade e a maximização do desempenho de cada ativo, permite a plena utilização das infraestruturas existentes, independentemente da sua criticidade. Além disso, ao tornar possível a utilização do ativo dentro dos seus parâmetros operativos nominais, o monitoramento de condição maximiza a sua vida útil, resultando em significativas reduções de custos de reposição, o que por si só já é um benefício valioso.

Tradicionalmente, a gestão de ativos é um conjunto de processos executados por diversos sistemas, geralmente com pouca ou nenhuma interação entre si. Isso implica em multiplicidade de abordagens, de modelos, de bases de dados e, principalmente, em farta replicação de dados, geralmente conflitantes, indicando a necessidade de uma abordagem mais holística, interativa, e normatizadora.

Considerando que a gestão estratégica diz respeito à maximização do desempenho dos ativos que têm um impacto direto e significativo na realização dos objetivos corporativos[2], fica evidente que o sucesso dessa abordagem depende de que os operadores tenham uma compreensão clara de todos esses ativos críticos, de sua localização geográfica e dos impactos que produzem sobre o negócio, de modo a planejar capacidades e gerir a disponibilidade e a confiabilidade da rede, com eficiência e o menor custo possível. Essa compreensão só será possível se coadjuvada por uma plataforma capaz de fundir dados de origens diversas num contexto único, em tempo real, capaz de ressaltar e dar sentido às interações entre indicadores estratégicos, métricas de manutenção, dados meteorológicos, históricos de ativos, modelos preditivos, etc, propiciando tomadas de decisão coerentes com os cenários vislumbrados.

Em nossa abordagem, o sistema para gestão estratégica de ativos está fundamentado no controle de elementos críticos do sistema elétrico, provendo medições e procedimentos de teste para esses ativos. São utilizadas técnicas de inteligência computacional para produzir as modelagens especializadas e os algoritmos capazes de lidar com universos amostrais de dados de falhas bastante reduzidos. Também são usados algoritmos capazes de identificar e antecipar padrões complexos de falhas, cujas sequências de eventos estejam distribuídas no tempo e possam não se limitar a um equipamento físico, espalhando-se pelos demais equipamentos de uma função operacional. Além disso, são usadas ferramentas de decisão baseadas em análise multicritério, que fornecem comparações entre alternativas baseadas em custos de oportunidade.

Finalmente, os modelos de cálculo para diagnóstico preditivo são padronizados, a fim de permitir a realização de diagnósticos uniformes em ambientes caracterizados por ativos de vários tipos e fornecedores.
Embora não existam diretrizes para diagnósticos e construção de modelos preditivos para todos os ativos do setor elétrico, é importante destacar a disponibilidade de padrões como o IEC-61970 (EMS) e IEC-61968 (DMS), conhecidos coletivamente como CIM (Common Information Model)[3]. As modelagens do CIM descrevem a rede elétrica, seus ativos, os dados necessários para o funcionamento do sistema elétrico e as relações entre todos os elementos da rede elétrica, simplificando a troca de informações entre sistemas e aplicativos, sejam de engenharia, administrativos ou corporativos. Nos Estados Unidos, o CIM já é definido pelo NERC (North American Reliability Council)[2] como o modelo oficial para comunicação de dados entre as empresas de energia elétrica. Por meio do CIM, também se contempla a integrabilidade e a coordenação com os sistemas já existentes de proteção da distribuição na Concessionária. No Brasil este padrão já foi adotado pelo ONS[4].

A infraestrutura que suporta todas essas funcionalidades, também experimental no setor elétrico nacional, é construída por meio de uma arquitetura orientada a serviços (SOA - Service Oriented Architecture)[5], disponibilizando processos, interfaces e comunicações estruturados de acordo com o CIM, integrando a gestão de ativos aos demais sistemas da Concessionária.

É importante ressaltar que essa infraestrutura de serviços SOA/CIM para integração e coordenação de aplicativos pode ser adequada e implantada em qualquer Concessionária nacional, provendo uma abordagem estratégica para tratamento centralizado de dados de manutenção de ativos, com o emprego de técnicas de inteligência computacional e a criação de uma base de conhecimento especializado, ao mesmo tempo mantendo a segurança do ambiente existente e disponibilizando uma plataforma aberta para a inclusão de novas aplicações.

O uso dessas tecnologias resultará em benefícios futuros para as Concessionárias brasileiras, assim como para a ANEEL, uma vez que consubstanciarão um primeiro campo de testes, no cenário nacional, para a criação e o aperfeiçoamento de uma coreografia de processos entre as empresas do setor elétrico brasileiro, contribuindo com experiências úteis em futuras implantações de Smart Grids.

Deyler dos Santos Paiva - Coordenador de Inteligência Comercial da Concert Technologies.

Links úteis:
[1] Smart Grid: http://smartgridnews.com.br/; http://www.smartgridnews.com/


[2] NERC/CIP: http://www.nerc.com/page.php?cid=2|20


[3] CIM: http://www.iec.ch/smartgrid/standards/


[4] ONS: http://www.ons.org.br/home/


[5] SOA: http://www.whatissoa.com/

Monday 26 March 2012

Sites de comparação de preços chegam às finanças

Planejamento financeiro

Ferramentas ajudam o consumidor a pagar menos em consórcios, financiamento, tarifas bancária e até mesmo no home broker.

 

Na hora de buscar o lugar mais barato para comprar um produto, já é normal o consumidor recorrer a ferramentas de comparação de preços. Mas o que dizer dos produtos financeiros? Bem, comparar as tarifas de cartões, de taxas de financiamento, consórcio ou mesmo as de telefonia nunca foi tarefa das mais fáceis.

A boa notícia é que esses instrumentos de comparação começam agora a se expandir também para o mundo das finanças pessoais. Há casos de sites que mostram ao investidor até qual home broker - sistema de compra e venda de ações via internet - tem os menores custos para que ele possa realizar determinadas operações. Já na parte de cartões de crédito, é possível contrapor as tarifas cobradas para o pagamento de contas ou mesmo saques tanto no país quanto no exterior.

Uma simulação rápida feita no Canal do Crédito, por exemplo, mostra que uma pessoa que queira financiar um apartamento de R$ 500 mil - com uma entrada R$ 100 mil (ou seja, fará um empréstimo de R$ 400 mil) e prazo de financiamento de 30 anos - encontra taxas de 10,70% a 11,76% ao mês. À primeira vista, o intervalo entre as taxas não parece tão grande, mas pode resultar numa diferença de quase R$ 400,00 por mês na parcela a ser paga. Em 30 anos, isso representa uma diferença de nada menos do que R$ 144 mil - valor que pode ser ainda maior caso seja investido mensalmente.

Essa simulação leva em conta uma pessoa com renda acima de R$ 6 mil, moradora da cidade de São Paulo e com 38 anos. Nesse caso, o Banco do Brasil oferece taxa efetiva total - ou seja, considerando todos os custos relacionados ao financiamento - mais baixa, de 10,70%, com parcelas iniciais de R$ 4.478,17. O mais caro, conforme a simulação, seria o Itaú, com taxa efetiva de 11,76% e parcelas de R$ 4.805,43. Foram considerados financiamentos pela tabela do Sistema de Amortização Constante (SAC). Com a comparação, a pessoa tem pelo menos uma referência para tentar barganhar, se for o caso, uma taxa melhor com o seu banco, diz Marcelo Prata, sócio do Canal do Crédito.

As tarifas bancárias, por sua vez, já entraram na mira da Associação Brasileira das Empresas de Cartões de Crédito e Serviços (abecs). No site tarifasdocartão, por exemplo, há uma ferramenta na qual o consumidor consegue avaliar os custos de cartões como anuidades, juros do limite de crédito e de saques.

Uma simples comparação de anuidade de cartões de crédito de uma grande bandeira em três grandes bancos, por exemplo, revela uma diferença de 18,75% nos custos. As anuidades nas três instituições variam de R$ 160,00 a R$ 190,00. E esses R$ 30,00 significam, em um ano, uma economia de R$ 360,00. Com esse dinheiro, seria possível, por exemplo, comprar uma bela máquina fotográfica digital ou mesmo um aparelho de GPS - e ainda sobraria um troco.

Outra ferramenta de comparação é o Corta Contas, pertencente ao Buscapé, onde é possível cotar e comparar custos com cartões de crédito, empréstimos, planos de saúde, seguros, financiamentos, consórcios, previdência, telefonia e tarifas bancárias. Segundo Guilherme Stocco, vice-presidente de desenvolvimento de negócio da Buscapé Company, o site tem uma média de 1 mil a 2 mil pedidos de cotação por dia. As comparações mais procuradas são para cartão de crédito e seguros de automóveis, diz ele.

A Buscapé Company fechou agora parceria com a seguradora Aon Affinity para o lançamento de um serviço de contratação de seguros on-line. A loja virtual Seguro Simples oferece seu primeiro produto, o de garantia estendida de usados, e futuramente terá seguro residencial, de automóvel, de acidentes pessoais e para notebooks. O cliente recebe um e-mail confirmando a compra com o certificado do produto escolhido e concorrerá a prêmios em dinheiro pela Caixa Econômica Federal.

Há ainda o Compare 123, em que o investidor pode até observar os custos dos home brokers de acordo com suas necessidades de aplicação. No Financiar Casa, por sua vez, a pessoa consegue comparar preços das taxas cobradas não apenas para comprar um imóvel como também para a construção de uma casa, reforma e crédito com imóvel em garantia, nas modalidades residencial e comercial.

www.canaldocredito.com.br

www.tarifasdocartao.org.br

www.cortacontas.com.br

www.compare123.com.br

www.financiarcasa.com.br

www.segurosimples.com.br

Novo perfil de condômino exige gestão transparente e eficaz

O perfil dos moradores e administradores de condomínios está mudando. Durante evento realizado na OAB-SP, a advogada Dayane Fanti, da MRG Advogados, explicou que a maioria dos moradores dos novos condomínios são pessoas da geração Y, conectadas e que exigem estar por dentro das informações, mas não possuem tempo para isso.

“São pessoas acostumadas com um ritmo mais acelerado, com ensino superior e usuárias de novas tecnologias. Elas querem participar das reuniões de condomínio e estar informadas sobre as decisões tomadas pela administração de forma prática e eficiente”, afirmou.

A advogada também citou pesquisa realizada pelo Secovi-SP (Sindicato da Habitação) que mostra que 74% dos síndicos de prédios residenciais possuem entre 30 e 60 anos. Esse é o percentual de pessoas que geralmente não têm tempo, mas estão antenadas em tudo e querem ter o máximo de transparência nas informações do seu cotidiano.

Diante dessa necessidade, Dayane defende a utilização da assembleia virtual de condomínios, ferramenta que permite aos condôminos participarem das reuniões de condomínio virtualmente, por meio de uma plataforma online. A solução foi desenvolvida pela Superlógica, empresa especializada em softwares para gestão de condomínios.

Totalmente baseado em recursos online, o sistema funciona da seguinte maneira: os condôminos são convidados via e-mail a fazerem um cadastramento e, uma vez inscritos, passam a participar da elaboração da pauta e das votações. Qualquer condômino tem o direito de sugerir melhorias para o condomínio e cada sugestão é analisada e discutida por todos.

A ferramenta também possibilita a realização de assembleias híbridas (aquelas nas quais o condômino escolhe participar virtualmente e presencialmente), assim como assembleias 100% virtuais com a utilização de certificados digitais para dar validade jurídica aos votos.

“A ideia inicial era aumentar a participação nas assemblaias de condomínio, que andavam vazias”, explica Carlos Henrique Cêra, diretor da Superlógica. “Mas já nas primeiras sessões percebemos que tínhamos, sem querer, descoberto uma ferramenta gerencial muito mais ampla”, observa.

Segundo Dayane, uma pesquisa apontou que somente 17% das pessoas comparecem as assembleias físicas e 85% participam das assembleias virtuais. “A assembleia virtual contribui em todos os sentidos para a melhora da administração do condomínio. Ela é segura, rápida e permite que todos participem das reuniões de maneira fácil e democrática”, destaca.

De acordo com o levantamento do Secovi, 50% dos síndicos paulistanos têm curso superior e outros 10% fizeram pós-graduação, mestrado ou doutorado. “As pessoas que estão assumindo as administrações dos condomínios são mais instruídas e também mais cobradas. Os moradores também possuem mais conhecimento e querem estar por dentro das principais decisões de seu condomínio. O uso de ferramentas tecnológicas é um excelente aliado nessas situações”, destaca Dayane.

Você sabia?

Ao6iHFWCQAE9E5Fanatel

Mesmo após extinção, CPMF rendeu R$ 1,7 bi ao governo.

Mais de quatro anos após a decisão do Congresso Nacional de acabar com a CPMF — o famoso imposto do cheque — o governo continua reforçando seu caixa com este tributo. Dados da Receita Federal mostram que, desde janeiro de 2008, quando a contribuição deixou de ser cobrada, a arrecadação federal conta praticamente todos os meses com recursos da CPMF, cobrada de empresas ou pessoas físicas. Dessa forma, a equipe econômica já conseguiu reforçar o caixa do Tesouro com nada menos que R$ 1,750 bilhão entre janeiro de 2008 e fevereiro de 2012.

Esse valor é suficiente, por exemplo, para o governo arcar com um ano da desoneração da folha de pagamento dos setores que já foram beneficiados pela medida (confecções, calçados, software e call centers), cujo custo estimado é de R$ 1,5 bilhão por ano. A arrecadação residual da CPMF equivale, em outro exemplo, ao que o governo deixará de arrecadar com a redução do Imposto sobre Operações Financeiras (IOF) de 3% para 2,5% para o crédito das pessoas físicas, cujo custo anual foi estimado em R$ 1,6 bilhão.

Segundo técnicos da Receita, a arrecadação desse residual da CPMF ocorre devido a ações administrativas e judiciais que foram sendo encerradas ao longo dos últimos cinco anos. Os valores que vêm sendo arrecadados incluem não apenas o tributo devido e não pago à época, mas também acréscimos de juros e multas.

Para o especialista em contas públicas Raul Velloso, esse comportamento mostra o excesso e o tamanho da burocracia que ainda existe no país:

— Disputa judicial no Brasil é algo demorado e causa essas distorções. Isso se chama morosidade brasileira.

Do total recolhido entre 2008 e 2012, R$ 408 milhões, por exemplo, foram decorrentes de multas e juros acumulados sobre o não recolhimento da CPMF. Outros R$ 97 milhões vieram de contribuintes que aderiram a parcelamentos tributários especiais e que estão pagando a dívida por etapas. Além disso, R$ 38 milhões vieram de valores que já estavam inscritos na dívida ativa da União.

Imposto extinto se mantém por 5 anos

De acordo com o Fisco, a extinção total de um tributo costuma levar, em média, cinco anos. Isso significa que o recolhimento residual da CPMF tende a ficar cada vez menor e desaparecer da lista das contribuições que são arrecadadas em breve. Mas isso não ocorrerá ainda em 2012. Para se ter uma ideia do ritmo dessa arrecadação, em janeiro último, R$ 8 milhões da extinta CPMF ingressaram nos cofres do governo.

O economista Felipe Salto, da consultoria Tendências, destaca que, mesmo com o fim da contribuição — criada com o argumento de que financiaria a Saúde Pública — o governo não teve qualquer problema em fechar suas contas nesses cinco anos.

Quando estava no meio da disputa com os parlamentares para evitar a extinção da CPMF — cuja arrecadação anual beirava R$ 40 bilhões em 2007 — a equipe econômica alegava que o fim do tributo seria um golpe para a Saúde e também prejudicaria a política fiscal. A alíquota do tributo era de 0,38%, que incidia sobre qualquer operação financeira realizada.

Quando a CPMF acabou, a Receita decidiu fazer uma série de ajustes tributários para compensar as perdas. O IOF, por exemplo, foi elevado para o crédito e passou a ser cobrado sobre novas movimentações. Isso fez com que o recolhimento desse imposto saltasse de R$ 7,8 bilhões em 2007 para R$ 20,3 bilhões em 2008. Já a arrecadação total do governo subiu, em 2008, nada menos que R$ 82,9 bilhões e vem batendo recordes desde então.

— O diagnóstico de que o governo precisava da CPMF para fazer o superávit primário e fechar suas contas estava errado — diz Salto. — A contribuição não era crucial para as contas públicas.

O mesmo governo que lucra até hoje com a cobrança da CPMF também continuou pagando o tributo mesmo depois de sua extinção. Reportagem do GLOBO publicada em julho de 2009 mostrou que, um ano e meio depois de ser extinta, a contribuição continuava sendo incorporada aos custos de contratos do governo com a iniciativa privada.

Em pelo menos 20 auditorias realizadas em 2008 e 2009, o Tribunal de Contas da União (TCU) constatou que empresas e órgãos do governo repassavam o valor do tributo para os fornecedores, que o embolsavam como lucro. Em apenas um dos contratos auditados em 2008, o TCU constatou o pagamento indevido, por empresa do governo, de R$ 3,38 milhões relativos ao tributo.

Volta de tributo é considerada

O TCU determinou o expurgo dos valores cobrados indevidamente, o que foi feito de imediato por algumas empresas. Outras ainda tentaram negociar prazos para corrigir a situação. Na ocasião, a Controladoria Geral da União (CGU) reafirmou que é responsabilidade dos gestores dos contratos revisar os pagamentos em caso de criação, alteração ou extinção de tributos, conforme o artigo 65 da Lei de Licitações (8.666). Para a CGU, os gestores dos órgãos contratantes têm base legal suficiente para obter a revisão dos contratos, e deveriam fazer isso em todos os casos suspeitos.

Quase cinco depois de extinto, a volta do tributo sobre movimentações financeiras é sempre lembrada pelo governo federal e governadores como a saída mais fácil para aumentar os recursos públicos para a Saúde. No início do atual governo, a presidente Dilma Rousseff chegou a incentivar governadores aliados a defenderem a volta da CPMF no Congresso, mas a negativa reação dos próprios políticos e, principalmente, da opinião pública inibe a formalização de proposta nesse sentido.


© 1996 - 2012. Todos direitos reservados a Infoglobo Comunicação e Participações S.A.

Thursday 22 March 2012

Empresas brasileiras têm menor nível de confiança em backup e recuperação de desastres

A Acronis, provedora desoluções de recuperação de desastres e proteção de dados com sede em Boston, EUA, abriu um escritório em São Paulo no início deste ano, para acompanhar de perto o mercao brasileiro e dar suporte a seus dois distribuidores locais, a Network1 e a SWorld. Ao mesmo tempo, a empresa divulgou seu Índice Global 2012 de Recuperação de Desastres.

A empresa fornece software para recuperação de desastres para ambientes físicos, virtuais e em nuvem. Sua tecnologia patenteada de imagem de disco permite aos diversos segmentos empresariais proteção dos seus ativos digitais. ‘’Ele é totalmente compatível com as diversas versões de Linux, de Windows e inclusive de NT’’, explica Xavier Aguirre, diretor de vendas para a América Latina.

A Acronis foi fundada há dez anos na Rússia, depois transferiu sua sede para os Estados Unidos, reunido hoje cerca de 800 funcionários. Sua solução é vendida em mais de 90 países e está disponível em até 14 idiomas.

Outra vantagem salientada pelo country manager Brasil, Tiago Cardoso, é que quando o usuário tem máquinas virtualizadas, dos diversos de fornecedores (Microsoft, VMWare, Citrix, etc.), não precisa ter uma instalação em cada um deles, ‘’podendo integrar os ambientes com comandos bastante simples.’’

‘’Os resultados da pesquisa demonstraram que há muito espaço para melhoria no fortalecimento e adequamento de backup de dados de negócios e sistemas operacionais no País. Observando uma oportunidade para ajudar a impulsionar o Brasil quanto ao backup de dados e recursos de recuperação de desastres", diz Aguirre.

"A Acronis está preparada para ajudar imediatamente as 65% das empresas no Brasil que atualmente utilizam as soluções separadas para seus ambientes físicos e virtuais, oferecendo tecnologia de primeira classe para atender a essas necessidades", afirmou Aguirre. "Além disso, nossos produtos incluem soluções de ponta de backup para servidores físicos. Queremos trazer para as empresas brasileiras a importância da proteção dos dados que se acumulam em suas máquinas virtuais.", enfatiza.

Pesquisa

A pesquisa anunciada nesta terça-feira, 20, foi realizada pelo Instituto Ponemon em 18 países, inclusive o Brasil, durante os meses de setembro e outubro de 2011.

De acordo com a Estratégia Internacional das Nações Unidas para Redução de Desastres, o mundo enfrentou 302 desastres naturais em 2011, como tsunamis e terremotos no Japão, inundações na Austrália, Tailândia e Rio de Janeiro. No geral, os desastres totalizaram US$ 366 bilhões em perdas financeiras.

Apesar de o ano passado ter sido um dos anos que mais registraram desastres naturais, o Índice Global 2012 de Recuperação de Desastres da Acronis mostra que empresas em todo o mundo estão em média 14% mais confiantes quanto às suas capacidades de backup e recuperação de desastres em relação ao ano anterior. A chave para esse aumento é uma maior percepção quanto aos recursos adequados (ferramentas/ambiente) e às tecnologias certas para este trabalho. O Brasil, no entanto, ficou em último lugar na lista dos 18 países pesquisados, que incluiu cerca de seis mil funcionários de TI de empresas com menos de mil empregados.

Na pesquisa, os países foram classificados em uma escala de -5,0 a +5,0, com base nos níveis de confiança de suas capacidades de backup e recuperação. O Brasil teve o nível mais baixo, marcando -0,9 e a Alemanha a maior pontuação, com +2,1. Os gerentes de TI brasileiros entrevistados expressaram uma significativa preocupação em relação à qualidade de gerenciamento de seus sistemas de backup e recuperação de desastres, questionando se os recursos para implementar medidas abrangentes estão sendo usados pelas empresas que eles representam.

Na verdade, apenas 13% dos entrevistados no Brasil "concordaram fortemente" que suas equipes de segurança e TI estão qualificadas para executar operações de backup e recuperação em caso de alguma emergência (ataques pela internet, desastres naturais etc), enquanto 44% "discorda fortemente" que seus executivos de negócios sejam favoráveis às implementações de operações de segurança contra desastres e backups de suas organizações.

Outros destaques brasileiros do estudo:

• Em média, os entrevistados no Brasil disseram que uma parada nos sistemas das empresas custa quase 300 mil dólares por ano.
• Cerca de 65% do pessoal de TI no Brasil achou que sofreria um tempo substancial de inatividade na sequência de um desastre como o mau tempo, um ataque cibernético etc
• Por volta de 64% dos entrevistados no Brasil disseram que o fator que mais contribui para o tempo de inatividade é o erro humano.
• Apenas 29% das empresas brasileiras disseram que metade ou mais da sua infraestrutura de informática será baseada em nuvem no ano de 2012.

Wednesday 21 March 2012

Banda larga móvel cresceu cinco vezes mais que a fixa no Brasil, segundo estudo

Em 2011, o número de acessos de banda larga móvel no País praticamente dobrou (99,5%) em relação ao ano anterior, saltando de 20,6 milhões para 41,1 milhões. Esse desempenho é cinco vezes superior ao registrado pela Internet fixa, que durante o mesmo período teve seu número de acessos ampliado em 19,5% e aumentou sua base de 13,8 milhões para 16,5 milhões. Os números, divulgados nesta terça-feira, 20, são do “Balanço Huawei da Banda Larga 2011”, foram consolidados pela Huawei em parceria com a consultoria Teleco.

Interessante observar também que a quantidade de dispositivos de dados móveis no Brasil já havia ultrapassado a de dados fixos em 2010 (20,6 milhões contra 13,8 milhões), porém em 2011 passa a representar mais do que o dobro da base fixa (41 milhões ante 16,5 milhões).

Segundo o levantamento, a tendência é de manutenção dessa disparidade de crescimento entre banda larga fixa e móvel nos próximos anos no Brasil: em 2012, serão 20 milhões de acessos fixos (aumento de 20%) e, em 2014, 30 milhões (50%). Enquanto isso, os acessos móveis de dados crescerão a uma proporção de 77,6% este ano, saltando para 73 milhões de dispositivos (inclusos aí celulares e modems 3G), e para 124 milhões em 2014, crescimento de 69,8% da base sobre 2012.

Acima da média

Segundo estimativas da União Internacional de Telecomunicações (UIT), em 2011 a banda larga fixa no mundo cresceu 12% e a móvel, 26,2%. Os números estão bem abaixo dos indicadores brasileiros, é verdade, mas é fato também que nos países desenvolvidos esses mercados já estão bem mais maduros e, até por isso, apresentam taxas anuais de crescimento mais modestas. Enquanto a densidade (número de acessos por 100 habitantes) da banda larga móvel brasileira é de 24 acessos, nos países da Organização para Cooperação e Desenvolvimento Econômico (OCDE), união dos 34 países mais desenvolvidos, a média é de 56. Se forem considerados todos os países do mundo, no entanto, o Brasil está acima da média global, que é de 17 acessos móveis por 100 habitantes.

Já a média da penetração da banda larga fixa dos países da OCDE é de 25 acessos por 100 habitantes, contra menos de 10 do Brasil.

Atualização

Em janeiro deste ano, a Anatel promoveu uma uniformização dos critérios de contabilização das operadoras dos acessos via aparelhos e modems, o que levou a um aumento de 4 milhões no total de acesos banda larga móvel no Brasil. Ou seja, aqueles 41 milhões de terminais de dados, ao término de 2011, saltaram para 45,1 milhões um mês depois, em janeiro de 2012. Esse contingente, em fevereiro, último mês aferido, já totalizava 47,2 milhões.

Escolha da PwC não coloca em risco isenção da medição, diz ministro

A contratação da PriceWaterHouseCoopers para a Entidade Aferidora da Qualidade da banda larga não coloca em risco a isenção da medição da qualidade da Internet, de acordo com o ministro Paulo Bernardo.

Para ele, mesmo que a Price tenha sido contratada pelas empresas para contribuir na consulta pública sobre o assunto, ela é uma empresa privada que presta serviço para diversos setores em diversos países e não tem ligação com as empresas de telecomunicações.

Questionado sobre os argumentos do NIC.br de que a metodologia definida pelo GIPAQ permite que a operadora manipule os resultados e não mede a capacidade da operadora de se comunicar além dos seus domínios, Bernardo disse que são questionamentos naturais de quem perdeu a disputa.

Para o ministro, o que seria "muito grave" seria se a empresa escolhida tivesse sido a ABR Telecom. "Não teria como defender (a contratação) nesse caso. Aí sim seria uma empresa ligada às teles".

Tuesday 20 March 2012

A escolha do caminho para o modelo da computação em nuvem e os desafios do mercado financeiro

A computação em Nuvem pode trazer ganhos significativos para o TI das corporações, entretanto a sua adoção pode ser feita através de vários caminhos distintos. Cada empresa poderá desenvolver seu próprio caminho para a Nuvem, baseado em seu modelo de negócio e objetivos de mercado.


Existem modelos de SaaS (Software como serviço) sendo ofertados na Nuvem, prestadores de serviços de hospedagem e Data Centers que oferecem recursos de computação e armazenamento em modelos PaaS e IaaS (Plataforma de desenvolvimento de aplicações e Infraestrutura Computacional como serviço) e arquiteturas mais elaboradas tais como Nuvens privadas e híbridas para empresas de médio e grande porte que exigem mais segurança e controle sobre seus aplicativos e informações.

A abordagem correta depende das necessidades e prioridades específicas de cada empresa.


A definição de um caminho pré-estipulado para a adoção do modelo da computação em Nuvem auxilia na desmistificação do tema em questão. Sendo assim é possível apresentar um roteiro lógico que propicie a implementação de forma gradativa dos recursos computacionais requeridos e a escolha do modelo mais adequado às necessidades do negócio.


Alguns benefícios como o ROI (Retorno Sobre o Investimento), alta disponibilidade e agilidade já se tornam disponíveis desde o início desta iniciativa.


Através da assistência correta e apoio dos especialistas de mercado é possível realizar o desenvolvimento da arquitetura em Nuvem (Privada, pública ou híbrida) que melhor se adapte ao modelo de negócios das organizações. Ressalto abaixo algumas fases e estágios para auxílio na determinação e forma de como construir seu caminho para a Nuvem;


- Fase de Consolidação: Nesta fase avalia-se a migração de aplicativos, carga de processamento, análise de recursos de E/S (Entrada e Saída), utilização de rede de armazenamento centralizada (NAS, SAN ou ISCSI) e uma infraestrutura de rede de dados consolidada. A análise, desenvolvimento e design desta arquitetura prepara o centro computacional para a próxima fase do caminho para o modelo em Nuvem descrito a seguir;


- Fase da Virtualização: A virtualização é um passo fundamental para a adoção do modelo em Nuvem propiciando de forma plena a utilização de suas capacidades e recursos disponíveis. Na maioria das vezes, a virtualização pode ser considerada uma simples estratégia para consolidação de servidores, entretanto esta estratégia deve ser expandida para todas as camadas e recursos de TI incluindo as redes de tráfego de dados e de armazenamento.

A arquitetura de Data Center virtualizado toma vantagem da automação e do provisionamento de recursos propiciando o aumento da resiliência nos negócios. A implementação de um Data Center virtualizado sobre uma arquitetura consolidada nos direciona para o próximo passo no caminho do modelo em Nuvem.


- Nuvem Privada: O próximo passo no desenvolvimento da arquitetura dentro das organizações é o de operacionalizar e habilitar a integração e a conectividade entre Data Centers que estejam dispersos geograficamente, propiciando a continuidade dos negócios em situações críticas ou de contingência.
A rápida recuperação em casos de desastres e a alocação dinâmica dos recursos permitem um grau maior de controle sobre os dados, aplicativos e sistemas do que na Nuvem pública.


- Nuvem de Serviços: Nesta etapa de construção da infraestrutura, as organizações podem criar federações entre sua Nuvem privada e um provedor de recursos em Nuvem pública para aumentar sua capacidade de forma exponencial ou atender às demandas de pico para serviços estratégicos.


Este último passo no caminho para o modelo de Nuvem oferece às organizações a flexibilidade de opções distintas e a possibilidade de determinar quando e como realizar a adição de recursos computacionais à sua infraestrutura.


Baseado em parâmetros de segurança, conformidade e disponibilidade, uma organização pode optar por executar aplicações de missão crítica em sua Nuvem interna e migrar aplicações não críticas para a Nuvem pública federada, mantendo uma experiência consistente e transparente para o usuário final.


Algumas características do modelo de computação em Nuvem ainda desafiam o modelo jurídico no qual as leis locais brasileiras se baseiam apresentando alguns riscos legais, já que os serviços e soluções na Nuvem podem ser entregues em qualquer lugar do mundo. O sigilo de acesso aos dados poderá ser quebrado dependendo da lei de privacidade do país no qual a Nuvem do provedor de serviços estiver localizada.


Aspectos como o acesso, propriedade e privacidade dos dados devem ser analisados e transcritos em cláusulas contratuais firmadas entre o prestador de serviços e o cliente final, além do detalhamento das condições dos acordos de Nível de Serviço (SLA).
Um segmento bastante sensível a tais fatores é o Mercado
Financeiro, já que o Banco Central estabelece normas sobre a retenção dos dados financeiros e determinadas informações sigilosas devem ser processadas dentro do território nacional de acordo com a legislação brasileira vigente.


Por consequência, este mercado está mais propenso à utilização de serviços de PaaS e IaaS em áreas que não apresentem riscos para as informações ou que não contenham dados de clientes finais, preferencialmente no modelo de Nuvem Privada ou seja, sem compartilhamento de recursos físicos e lógicos com outras empresas mas buscando a redução de custos operacionais e o aumento da produtividade das equipes internas.


Alguns fabricantes e fornecedores de tecnologia possuem soluções de Data Centers e portais para gerenciamento, controle e provisionamento de recursos para ambientes virtualizados que viabilizam o desenvolvimento de Nuvens privadas ou públicas e buscam manter a presença de suas marcas em eventos financeiros tais como o Congresso Internacional de Automação Bancária (CIAB) que é realizado anualmente, apostando no interesse crescente por parte das instituições financeiras no desenvolvimento de experiências com a Nuvem.


Há também consultorias no mercado de TI que possuem a expertise necessária para identificar os passos de infraestrutura que cada empresa precisa seguir para buscar a arquitetura em Nuvem que melhor atenda às suas necessidades comerciais específicas.
De acordo com o Gartner, a utilização dos serviços em Nuvem será uma grande oportunidade para as empresas nos próximos anos e uma curva maior de utilização do modelo já deverá acontecer ao longo de 2012.


Enfim, possuindo o conhecimento adequado, é possível realizar a adoção das tecnologias em Nuvem de forma gradativa, através de fases pré-estabelecidas que proporcionem o valor tangível de cada estágio para a corporação, apresentando vantagens em relação à introdução ao modelo sem métricas mensuráveis e possibilitando às empresas a ativação dos serviços sobre demanda de acordo com as necessidades do seu negócio.

Marco Gonçalves é gerente de Desenvolvimento de Negócios da Multirede.

Monday 19 March 2012

Seis passos para o sucesso de suas Politicas de Segurança

As organizações precisam adotar uma abordagem sistemática e pró-ativa para mitigação de risco para que possam estar melhor preparados para satisfazer as crescentes exigências legais e regulamentares, gerenciar os custos de conformidade e perceber vantagem competitiva.

Alcançar e manter a conformidade com a política se torna mais difícil de sustentar à medida que as organizações crescem, tornam-se mais dispersas geograficamente. Mas, não tem de ser assim.

O Propósito de Políticas e Procedimentos

Políticas e procedimentos estabelecer diretrizes para os processos de comportamento e de negócios de acordo com os objetivos estratégicos de uma organização. Embora normalmente desenvolvido em resposta às exigências legais e regulamentares, seu principal objetivo deve ser o de transmitir a sabedoria acumulada sobre a melhor forma de fazer as coisas de uma forma livre de risco, eficiente e compatível.


Armadilhas da Política

Aqui estão alguns dos motivos mais comuns para a política de não-conformidade:


•Políticas mal formulada


•Políticas mal estruturados


•Políticas fora da validade


•Políticas inadequadamente comunicadas


•Falta de controle e gestão


Então, qual é o segredo para a gestão política eficaz?


Seis Passos para a Excelência Política

Primeiro Passo
Criar e Rever
É importante compreender, quando a criação de políticas, exclusivamente para satisfazer os auditores e os órgãos reguladores não são susceptíveis de melhorar o desempenho empresarial

Embora satisfazendo departamentos jurídicos, e olhando para os auditores e reguladores, estas politicas devem ser sempre revisadas, e escritas de maneira clara e simples.


Os fatores externos que afetam as políticas estão a evoluir o tempo todo. Por exemplo, o avanço da tecnologia pode levar a políticas de informação e procedimentos de segurança se tornando obsoletas. Além disso, mudanças na regulamentação da lei ou da indústria exigem políticas operacionais a freqüência ajustada. Algumas políticas, tais como pagamento DSS do setor de cartões, têm de ser re-apresentado e assinado até em uma base anual.


Normalmente, a maioria “política” sejam extensos, onerosos e bastante ilegível. Muitos são escritas usando o jargão complexo, e mais conter conteúdo estranho que seria melhor classificado como procedimentos, normas, orientações e formas. Tais documentos devem ser associados com a política.

Os documentos devem ser escritos usando uma linguagem que é apropriado para o público-alvo, e deve enumerar as consequências do não cumprimento.


Documentos menores e mais gerenciáveis ? ?são mais fáceis para uma organização para revisar e atualizar, controle de versões inadequadas e elevados custos de produção pode ser reduzido por automatizar o processo inteiro usando um sistema electrónico.


Segundo Passo: Distribuir
Um passo importante no ciclo de gestão política é garantir que os funcionários estão cientes das políticas e procedimentos relevantes. As organizações precisam efetivamente distribuir políticas, de forma oportuna e eficiente.


Estas precisam ser aplicadas de forma coerente em toda a organização. Afinal, o que é o ponto de desperdiçar esforço e custos consideráveis ?? para que escrever e aprovar as políticas, se não forem efetivamente distribuídas e lidas?


Terceiro Passo: Atingir aceitação
Em muitos casos, os requisitos regulamentares  exigem, pedir provas de aceitação política, exigindo uma abordagem mais pró-ativa e completa para o ciclo de gestão política.

Por exemplo, uma organização pode querer garantir que um usuário assine a sua política de governança de informação no primeiro dia em que eles começam emprego, na ambientação tambem seria ministrado um treinamento em segurança da informação


Passo Quatro: Entendimento
Para monitorar e medir a compreensão pessoal e a eficácia das políticas e documentação associada, as organizações devem testar tudo, ou talvez um subconjunto, os usuários. Todas as áreas que mostram pontos fracos podem ser identificados e corrigidos em conformidade.

O treinamento adicional ou orientação pode ser necessário ou, se é a política que está causando confusão, pode ser reformulada ou simplificado.


Quinto passo: Auditabilidade
O historico de revisão completa de todos os documentos precisam ser mantidos , quando e, se possível, quanto tempo levou, que caiu de uma política e por quê. Este registo deve ser armazenado para referência futura e podem ser armazenados em conjunto com outras evidencias.


Sexto passo: Relatórios
Para melhorar a conformidade, a ajuda de indicadores de desempenho relativos à captação de política são claramente visíveis em todos os níveis de uma empresa. Visibilidade Painel de cumprimento da política de captação por unidades de negócios geográficas ou funcionais ajuda a consolidar as informações e as exceções destaques.


Ser capaz de rapidamente pesquisar detalhes específicos em áreas de conformidade com a política pobres melhora drasticamente a capacidade de gestão para compreender e abordar questões subjacentes.
Juntando tudo


•Para verificar o nível de conformidade com a política que existe dentro de sua organização que você precisa para periodicamente responder às seguintes perguntas:


•Onde está você políticas atuais? – É o acessível ao pessoal?
•Quem viu suas políticas atuais?
•Quem leu as políticas atuais?
•Suas políticas são seguidas por todos?
•Suas políticas colaboram para gestão eficaz?
•Suas políticas são validas até à data?
•Você pode provar isso para a Auditoria?


Em última análise, o cumprimento da política é fazer com que as pessoas façam a coisa certa, da maneira certa, o tempo todo.
Garantir todos entendam o que é esperado deles e como eles são convidados, a realizar seus trabalhos de acordo com políticas e procedimentos corporativos não é uma prática nova.


A incorporação de uma solução de gerenciamento automatizado de política em uma organização é realmente a única forma viável de criar e sustentar uma cultura de cumprimento, onde as pessoas entendem suas responsabilidades e da importância de aderir a padrões corporativos.


Com tratamento eficaz, gestão do ciclo de vida política, é possível criar uma base sólida para a mitigação de risco eficaz e governança para o seu dia-dia.
Até a proxima

Fonte: por Evandro Ribeiro via TI Especialistas

O empresário brasileiro que gasta US$ 70 milhões ao ano para ter um jardim de arte

O magnata da mineração Bernardo Paz emprega mais de mil pessoas no projeto que mantém no interior de Minas Gerais e que, diz ele, vai durar mil anos.

Não é de admirar que Bernardo Paz seja conhecido como o "Imperador do Inhotim". Cerca de mil funcionários, incluindo curadores, botânicos e derramadores de concreto, fervilham em torno de Inhotim, o complexo de arte contemporânea de Paz, situado nas montanhas do sudeste do Brasil, no Estado de Minas Gerais. Peregrinos que viajam por todo o mundo em busca de arte absorvem obras surpreendentes, como "Sonic Pavilion" ("Pavilhão Sônico"), de Doug Aitken, que utiliza microfones de alta sensibilidade colocados em um buraco de 192 metros para captar o murmúrio grave das profundezas do interior da Terra.

Foto: New York Times Ampliar

Bernardo Paz, nos jardins de Inhotim: desprezo por alguns dos titãs do empreendedorismo brasileiro e desdém especial pelo homem mais rico do Brasil, Eike Batista

Parece que as florestas de eucalipto de Inhotim emanam um cheiro de megalomania. Ali, Paz colocou mais de 500 obras de artistas brasileiros e estrangeiros. Seu jardim botânico contém mais de 1.400 espécies de palmeiras. Ele resplandece ao falar das plantas raras e oníricas de Inhotim, como a titun arum de Sumatra, chamada de "flor-cadáver" devido ao seu horrível mau cheiro.

Leia também: Novas obras de arte em Inhotim, o maior museu a céu aberto do mundo

Paz, um magro magnata da mineração, fumante inveterado de 61 anos, fala em forma de sussurros quase inaudíveis. Ele se casou com sua sexta mulher em outubro. Tem cabelos brancos até os ombros e olhos azuis pálidos, que lhe dão uma aparência que lembra o debochado e esquelético fazendeiro brasileiro interpretado por Klaus Kinski no filme "Cobra Verde", de 1987, assinado pelo diretor Werner Herzog.

"Este é um projeto para durar mil anos", disse Paz sobre Inhotim, numa rara entrevista, com um cigarro Dunhill pendendo nos lábios.

Foto: Lalo de Almeida/The New York Times

Um olhar através de "Viewing Machine," do artista dinamarquês Olafur Eliasson: 500 obras de artistas brasileiros e estrangeiros nos jardins de Inhotim

É difícil dizer o que as pessoas poderão pensar de Inhotim daqui a séculos. Algumas obras-primas de momentos importantes da arte no Brasil ainda sobrevivem como testemunho da extravagância do passado, como o célebre teatro de ópera construído no auge do ciclo da borracha no final do século XIX, em Manaus, a maior cidade da Amazônia.

Leia ainda: Com acessos alagados, museu a céu aberto de Inhotim é fechado

Em outros lugares da América Latina, majestosas coleções particulares de arte contemporânea também foram disponibilizadas ao público, como a Jumex, de Eugenio Lopez, na Cidade do México. E muito mais longe, no arquipélago Seto, no mar interior do Japão, o Benesse Art Site mistura, de modo semelhante, uma arquitetura inovadora com a arte contemporânea.

Mas nenhum desses lugares tem a exuberância do clima quente de Inhotim, situado nas colinas marcadas pelas cicatrizes da mineração, longe dos circuitos de colecionadores do Brasil, em São Paulo e no Rio de Janeiro. Os historiadores de arte e curadores muitas vezes saem maravilhados com a dimensão e a visão caótica que Paz criou em Inhotim.

Leia também: Criador do Inhotim é um dos mais influentes do mundo das artes

"A quantidade de espaço concedido a projetos de artistas individuais é incomparável, como a maneira como os visitantes transitam de um prédio a outro, refrescando os sentidos, estando na natureza", disse Beverly Adams, autoridade em arte latino-americana que é curadora da coleção particular de Diane e Bruce Halley em Scottsdale, Arizona.

Parece que sobrecarregar os sentidos dos conhecedores ainda entusiasma Paz, que abandonou a escola no ensino secundário e teve como primeira experiência de trabalho a operação das bombas de um posto de gasolina de propriedade de seu pai. Ele então trabalhou no mercado de ações em Belo Horizonte, que odiava, conforme contou, antes de entrar na mineração de ferro e forjar rapidamente um império empresarial privado que financia as operações de Inhotim.

Veja ainda: Investimentos: Arte vira fetiche

Algumas obras de Inhotim parecem questionar, se não de fato insultar, a ideia de lucrar com a mineração dos tesouros da Terra. Por exemplo, uma instalação do artista americano Matthew Barney em um domo geodésico inclui uma cena de um crime ambiental inconfundível: um trator enorme coberto de lama segurando uma árvore e suas raízes. Para visitar essa obra, os visitantes visitam as colinas desmatadas, contendo minerais, da Mata Atlântica, floresta que cobria a região.

Inhotim recebeu cerca de 250 mil visitantes em 2011 e espera bem mais neste ano. Mas Paz, que diz que suas empresas fornecem a Inhotim cerca de US$ 60 a US$ 70 milhões para suas operações a cada ano, não vê necessidade de parar por aí.

Leia ainda: Como investir em filmes, ouro e pedras preciosas

A fim de tornar Inhotim autossustentável, ele disse que estava planejando construir nada menos que dez novos hotéis aqui para os visitantes, um anfiteatro para 15 mil pessoas e até mesmo um complexo de "lofts" para aqueles que quiserem viver em meio à coleção. Ele disse que Inhotim, que se espalha por quase 2.020 hectares, tem espaço para pelo menos mais duas mil obras de arte.

Fonte: Portal www.ig.com.br

Internet móvel pré-paga no Brasil: um comparativo entre as principais operadoras

O Brasil está se tornando um “país conectado”, muito em parte graças ao acesso à internet móvel. Além de ser mais flexível do que as conexões residenciais, elas são cada vez mais baratas, disponíveis até em planos pré-pago. Por conta deste fácil acesso, o número de pessoas conectadas a redes sociais, serviços de mensagens instantâneas e e-mails em qualquer lugar tem aumentado em um bom ritmo. Mas… qual desses planos é o mais vantajoso para você usar no seu smartphone?

Nesse artigo que o TechTudo preparou para você, vamos fazer uma análise das atuais ofertas das quatro principais operadoras brasileiras, demonstrando como está o cenário da internet móvel pré-paga no Brasil. Vamos mostrar as principais características, e os prós e contras de cada plano. Você verá que existem serviços para todos os tipos de usuários e smartphones - mesmo pra quem tem um smartphone “top” e não quer gastar muito com um plano de dados.

Mas antes, vale lembrar que…

Para alguns perfis de uso, e principalmente em alguns smartphones, o uso da internet pré-paga é apenas um recurso de emergência. Entendemos que o propósito de nossa análise é orientar o consumidor que não pode (ou não quer) gastar muito dinheiro em um plano de dados, mas que deseja estar minimamente conectado para suas atividades online. Por outro lado, não adianta muita coisa você adquirir um smartphone como o iPhone, o Galaxy S II ou o Motorola RAZR se você não contratar um bom plano de dados. Apesar de alguns planos descritos a seguir permitirem um uso satisfatório com os smartphones “top” de linha, recomendamos que o usuário considere a possibilidade de adquirir um plano de dados pós-pago, onde o limite de dados e a velocidade ofertada são maiores.

Outro detalhe a ser considerado: os ajustes de consumo de dados nos smartphones (independentemente do tipo de aparelho) também é um fator relevante na hora de escolher seu plano. Telefones capazes de gerenciar com eficiência o consumo de dados, com opções que desabilitem a conexão quando o telefone ficar em stand-by, são altamente recomendados para quem contrata planos de internet pré-pagos. Além de controlar o volume de dados, oferecem uma melhor relação custo-benefício no final do mês.

Por fim, alguns aplicativos específicos, como o Opera Mini e o WhatsApp possuem um consumo menor de dados. Vale a pena o usuário dar preferência aos programas que comprovadamente consomem uma menor quantidade de dados. Assim você terá um bom equilíbrio na relação “preço pago/serviço oferecido”, já que você pode otimizar o desempenho de sua conexão - principalmente para o caso de você contratar um pacote com redução de velocidade depois de um período determinado de uso.

Dito isso, segue abaixo nossas observações sobre os planos ofertados pelas principais operadoras nacionais.

Vivo

Plano de internet Vivo Pré (Foto: Reprodução)Plano de internet Vivo Pré (Foto: Reprodução)

Internet no Vivo Pré/Controle

Preço: R$ 9,90/mês
Tipo de conexão: 3G/GPRS/EDGE ilimitada (com redução de velocidade)
Pacote de dados: 20 MB
Velocidade: até 1  Mbps (no limite de 20 MB de dados; depois desse limite, a velocidade é reduzida para 32 Kbps)

O Vivo Pré surgiu como uma alternativa aos usuários do serviço Vivo ON, que desejavam uma maior liberdade de acesso à web, mas que ao mesmo tempo não querem pagar muito por um acesso simples a partir do seu celular ou smartphone. Com esse tipo de conexão o usuário não fica limitado apenas às redes sociais e e-mails, mas pode navegar por todo e qualquer tipo de conteúdo na internet, sem nenhum tipo de cobrança adicional.

O serviço é um dos mais baratos entre as operadoras, custando R$ 0,33 por dia de acesso. Porém, diferentemente de outras operadoras, o Vivo Internet Pré Ilimitado obriga o usuário a assinar o pacote de acesso pelo mês todo, sem contar com uma opção de cobrança avulsa pelo dia acessado (algo mais vantajoso para boa parte dos usuários).

Uma das vantagens do serviço é que ele oferece a velocidade mais alta entre os planos pré-pagos (1 Mbps). Porém, a alegria dura muito pouco: o serviço só garante essa velocidade até o consumo de 20 MB de dados. Ultrapassado esse limite, você vai ter que se contentar com uma velocidade de 32 Kbps até o final do período de 30 dias contratados. No início de um novo ciclo, o valor correspondente ao plano é debitado dos créditos do usuário, e a velocidade máxima é restabelecida.

Recomendado para:
os usuários que só vão acessar e-mails e redes sociais ocasionalmente, em telefones com baixo consumo de dados. Para quem utiliza as redes sociais de forma mais intensa e deixa o serviço de pushmail do iPhone ligado, esse pacote de dados só vai funcionar de forma plena por poucos dias. Depois disso, com a queda de velocidade, o serviço se torna inviável para os mais exigentes. Veja mais informações.

Oi

Plano de internet pré da Oi (Foto: Reprodução)Plano de internet pré da Oi (Foto: Reprodução)


Oi Dados (para Oi Celular e Oi Controle)

Preço: R$ 9,90/mês, R$ 2,90/semana, R$ 0,50/dia
Tipo de conexão: 3G/GPRS EDGE ilimitada (com redução de velocidade)
Pacote de dados: 30 MB (mensal), 15 MB (semanal), 5 MB (diário)
Velocidade: até 1  Mbps (no limite de dados previamente estabelecido; depois desse limite a velocidade é reduzida para 50 Kbps)

É uma variante da proposta oferecida pela Vivo, mas com maior flexibilidade de preços e opções. Aqui o usuário pode escolher qual o período de acesso que deseja, com o valor que melhor cabe no bolso, dependendo do seu propósito de uso. Além disso, a oferta de internet pré-paga da Oi pode ser integrada a outros pacotes de serviços, trazendo uma combinação de produtos e funcionalidades da operadora.

A opção de conexão mensal possui um pacote de dados um pouco maior do que aquele ofertado pela Vivo, mas não muito: apenas 30 MB. Ao ultrapassar esse consumo, o usuário ficará limitado a uma conexão com velocidade de 50 Kbps até o final do período. A regra de redução de velocidade vale também para os pacotes semanal e mensal.

A vantagem da Oi é permitir que o usuário faça a contratação avulsa do serviço, de acordo com a sua necessidade. Para aqueles que não precisam de uma internet móvel, recomendamos a prática da contratação diária. A relação preço/pacote de dados é melhor (R$ 3,50/35 MB por semana, contra R$ 2,90/15 MB por semana), e oferece um uso mais completo do celular ou smartphone. Mesmo assim, o pacote diário oferece apenas a metade do volume de dados de alguns concorrentes.

Recomendado para: os usuários que não vão utilizar a internet móvel todos os dias. Para aqueles que só precisam acessar a web em dias e situações específicas, e para proprietários de smartphones que possuem um uso moderado de dados (e-mails, mensagens instantâneas e redes sociais). Veja mais informações.

Tim

Oferta de internet pré da Tim (Foto: Reprodução)Oferta de internet pré da Tim (Foto: Reprodução)


Tim Infinity Web Pré

Preço: R$ 0,50/dia
Tipo de conexão: 3G/GPRS/EDGE ilimitada (com redução de velocidade)
Pacote de dados: 10 MB/dia (ou 300 MB/mês)
Velocidade: até 300 Kbps (no limite de dados previamente estabelecido; depois desse limite, a velocidade é reduzida para 50 Kbps)

A Tim foi pioneira na proposta de internet pré-paga ilimitada no Brasil. Lançou o serviço em 2010, e hoje se tornou um dos pilares de serviços oferecidos pela operadora, que também integra serviços de torpedos e chamadas ilimitadas aos seus serviços (de Tim para Tim).

Diferentemente dos serviços da Vivo e da Oi, não é necessário se cadastrar previamente para a usar a conexão, pois o serviço está automaticamente inserido na linha do usuário. Ou seja: assim que você compra o chip, basta colocá-lo no seu celular e usar a internet. Esse benefício torna o produto mais fácil de usar, ótimo para o público-alvo que a operadora deseja conquistar.

Por outro lado, a conexão é consideravelmente mais lenta do que os seus concorrentes. Você estará limitado aos 300 Kbps ofertados pela operadora, e dentro de um limite de até 300 MB de dados ao mês. Fazendo as contas para um consumo mensal (o que não deve acontecer, uma vez que o serviço só debita créditos do usuário no dia que utilizar a conexão) o valor máximo de R$ 15,50/mês (para os meses de 31 dias) por até 300 MB de dados é a melhor relação custo/benefício que os usuários podem encontrar.

A quantidade de 10 MB de dados diários é aceitável, até mesmo para que usuários de iPhone e Androids “top” aproveitem um pouco mais dos seus dispositivos. É claro que não dá pra ver vídeos de forma desenfreada, mas é possível ver seus e-mails, atualizar as redes sociais e trocar mensagens instantâneas durante um dia de trabalho, e com uma certa folga.

Recomendado para: os usuários que não vão utilizar a conexão móvel todos os dias. Para quem tem um uso mais elaborado dessa conexão, recebendo um volume maior de e-mails e mensagens instantâneas. Para quem tem um smartphone com recursos avançados, mas não pode contratar um plano de dados pós. Veja mais informações.

Claro

Oferta de internet pré da Claro (Foto: Reprodução)Oferta de internet pré da Claro (Foto: Reprodução)

Internet Pré a R$ 0,50/dia ou Pacotes Internet Pré

Preço: R$ 0,50/dia, R$ 6,90/quinzenal, R$ 11,90/mês
Tipo de conexão: 3G/GPRS/EDGE ilimitada (com redução de velocidade)
Pacote de dados: 10 MB/dia, 150 MB/quinzena, 300 MB/mês
Velocidade: até 300 Kbps (no limite de dados previamente estabelecido; depois desse limite, a velocidade é reduzida para 32 Kbps)

A Claro ataca em duas frentes. Quando lançou a sua opção de internet pré-paga, ofereceu dois pacotes avulsos: um com período de 15 dias, com quantidade de dados de até 150 MB; e outro para 30 dias, com dados de até 300 MB. Os valores são fixos por período, e a contratação é feita pelo site ou por SMS. Porém, quando a Claro percebeu que a oferta da Tim de cobrança avulsa por dia era mais vantajosa para o seu público-alvo, ela resolveu repetir a mesma estratégia.

Com isso, a Claro possui ofertas flexíveis para diferentes perfis de uso. Os pacotes quinzenal e mensal possuem uma peculiaridade que pode ser interessante para muitos usuários: diferentemente dos concorrentes, o pacote de 150 MB ou 300 MB de dados não são fracionados em 10 MB por dia. Se o usuário precisar utilizar um volume de dados maior em um determinado dia, não terá a tal queda de velocidade naquele dia em específico, mas só quando atingir a cota total do pacote. Esse detalhe é muito importante para quem sabe que vai usar um grande volume de dados em situações especiais. Além disso, nesse cenário, a utilização moderada desse pacote com os smartphones mais avançados é viável, apesar da velocidade de 300 Kbps.

Já na oferta de R$ 0,50 por dia de acesso, as mesmas características descritas no plano da Tim valem para o serviço da Claro, com a diferença de que, nesse caso, a redução da velocidade ao atingir a cota de 10 MB/dia é mais drástica, limitando a velocidade para 32 Kbps. Na prática, para troca de mensagens e emails, a velocidade mais baixa não traz diferenças tão grandes, e por isso pode ser desonsiderado se você aguentar ficar sem ver vídeos do YouTube longe de casa.

Recomendado para: os usuários que vão utilizar a internet no celular de forma ocasional. Para quem vai utilizar um volume de dados acima dos 10 MB em situações específicas. Para usuários de smartphones avançados, que podem ter um uso moderado com o pacote de dados, e se contentam com uma velocidade reduzida para o acesso à web. Veja mais informações.

 

Fonte: Eduardo Moreira para o TechTudo

'Ativismo online funciona'

Log in: Emma Ruby-Sachs, diretora de campanhas da Avaaz

Como a Avaaz avalia o fenômeno Kony 2012?

É mais um exemplo de uma verdade reforçada todos os dias: as pessoas do mundo todo querem as mesmas coisas ? menos guerra, menos pobreza, proteção aos direitos humanos e ao ambiente. Também querem uma oportunidade de tomar uma atitude concreta e fazer do mundo um lugar melhor. E a internet está reunindo pessoas, dinheiro e informação de maneira mais rápida e efetiva do que jamais aconteceu.

O filme fala em ?experiência?. Por que a experiência deu certo e o que ela ensina ao ativismo online?

Isso não é mais uma experiência. É um método comprovado de conduzir uma campanha com impacto enorme e de criar engajamento de maneira rápida e global. Ainda é preciso acompanhar como a Invisible Children vai usar seu sucesso, mas tenho esperança de que eles e outras organizações mobilizadas em torno desse tema aproveitem a conversa global que esse vídeo iniciou e conduzam isso para uma solução eficaz.

O vídeo foi acusado de fazer simplificações para atingir o maior número de pessoas possível. Isso é justificável?

Na Avaaz, mandamos ao menos um e-mail por semana para 13 milhões de pessoas no mundo inteiro que faz apenas isso: conta uma história curta e precisa e apresenta uma oportunidade de mudança efetiva.

Por outro lado, o vídeo alerta sobre um problema real.

O debate global em torno de um conflito que nunca chega às manchetes é uma oportunidade de começar uma nova conversa e reunir energia para fazer algo. A solução envolve cooperação global. As pessoas, quando colocadas diante de uma oportunidade de agir por uma mudança efetiva e sabendo como sua ação vai fazer a diferença, transformam indignação em ação.

O fato de ser tão fácil apoiar uma causa com apenas uns cliques torna as pessoas mais suscetíveis à manipulação?

As pessoas querem fatos, querem saber por que agir e por que aquela ação fará diferença. Na Avaaz, submetemos as campanhas à avaliação dos membros, para garantir que eles escolham quais serão encampadas. Volta e meia, quando os fatos de alguma campanha não estão claros e o motivo de ação não é concreto o suficiente, a campanha é reprovada.

Kony 2012 contou uma história ? ainda que com imprecisões ? que muita gente não conhecia e que despertou a vontade de agir. A narrativa básica é comovente e real: Kony é procurado pelo Tribunal Penal Internacional, ele escraviza, sim, crianças, o Exército de Resistência do Senhor de fato ataca vilarejos e sequestra crianças. O fato de isso ter despertado as pessoas a querer fazer algo não só é esperado como é estimulante e reforça aquilo que conhecemos como responsabilidade humana global e responsabilidade de um para o outro.

Qual tipo de checagem a Avaaz faz de propostas de campanhas?

As campanhas da Avaaz são sugeridas por membros ou organizações parceiras, então são elaboradas pela pequena equipe da Avaaz. Ela é testada com grupos de membros ao longo das várias etapas do processo de desenvolvimento da proposta. Somente depois que esses grupos aprovam a campanha, ela é enviada a toda a nossa lista de membros. Estamos agora começando a testar um novo site em que os membros pode dar início a campanhas e enviá-las para suas comunidades usando as ferramentas que desenvolvemos ao longo longo dos anos.

Friday 16 March 2012

Idec questiona números do SindiTelebrasil sobre atendimento

O Instituto Brasileiro de Defesa do Consumidor (Idec) encaminhou um posicionamento oficial a este noticiário em resposta à nota publicada semana passada que, com base em dados enviados pelo SindiTelebrasil, apontava queda pela metade na quantidade de queixas registradas contra as empresas de telecomunicações nos últimos dois anos.

De acordo com nota do Idec, a situação apontada pela análise do SindiTelebrasil é “apenas parcialmente verdadeira” e “nenhuma das bases de reclamações ou atendimentos citadas permite chegar a uma conclusão tão positiva como sugere o Sinditelebrasil”.

O Idec admite que houve queda, nos três últimos anos, do número de atendimentos referentes a telecomunicações em seu ranking. “Mas a queda mais significativa se deu entre 2009 e 2010 (de 1.189 para 661 atendimentos). Se analisarmos a evolução do período mais recente, de 2010 para 2011, na verdade houve até um ligeiro crescimento (de 661 para 680 atendimentos), de 2,8%”.

O instituto questionou a informação dada pelo Sinditelebrasil, de que apenas 2,3 clientes de telecomunicações reclamaram em um grupo de um milhão durante 2011. “É difícil saber como se chegou a esses números. Se a base para essa afirmação é o percentual de atendimentos do Idec em 2011 em assuntos de telecomunicações (12,93% da base de 5.258 atendimentos sobre problemas de consumo), transpondo esse mesmo percentual para o número de clientes em telecomunicações descrito pela própria nota do SindiTelebrasil, de 314 milhões de clientes, teríamos um número total de 40,6 milhões de reclamantes (ou 7,73 por milhão de clientes)”.

O instituto também adverte que seu ranking de reclamações não pode ser utilizado como base para qualquer projeção, uma vez que se restringe ao número de atendimentos realizados a associados.

Procon-SP

Segundo o comunicado do Idec, o ranking 2010 de reclamações fundamentadas do Procon-SP traz, entre as dez empresas mais reclamadas, três da área de serviços de telecomunicações: Telefônica (em primeiro); Claro (5º) e Net (10º). A entidade aproveita para rechaçar um antigo argumento das operadoras de telecom: “para não deixar dúvidas de que essa posição não se deve apenas ao grande universo dos clientes, essas mesmas empresas também estão entre as dez que menos atendem às reclamações. Isso é um dado qualitativo que desmonta o argumento da quantidade de clientes”.


DPDC

“Os dados do Cadastro Nacional de Reclamações Fundamentadas de 2010, publicado pelo Departamento de Proteção e Defesa do Consumidor (DPDC, do Ministério da Justiça), que reúne dados de 22 Procons estaduais (São Paulo não estava ainda incluído), mais Distrito Federal, e de 30 órgãos municipais, traz, entre os dez fornecedores mais reclamados, quatro operadoras de telefonia (Oi, Claro/Embratel, TIM/Intelig e Vivo).

Thursday 15 March 2012

PCs, tablets e smartphones: porta aberta para o inimigo?

Em tempos de consumerização da TI, a segurança total do endpoint já não pode mais ser ignorada, e uma estratégia de segurança "suficiente" já não é mais suficiente.

Dispositivos na ponta da rede como desktops, notebooks, tablets e smartphones exigem a criação de um programa de segurança completo e integrado.

No passado, esses equipamentos eram, muitas vezes, relegados ao final da lista de um gerente de TI. Hoje, somos sempre lembrados do grau de criticidade de segurança do endpoint quanto mais empresas são invadidas e mais grupos de hackers divulgam diariamente suas vitorias.

A natureza das ameaças também está mudando. Os hackers já não estão mais atingindo alvos aleatórios por simples diversão. Em vez disso, agora eles fazem parte de iniciativas organizadas (ou até de governos estrangeiros) trabalhando para explorar os dados de sua empresa e de seus clientes, visando ganhos financeiros. Além disso, os vetores de ataque tornaram-se mais complexos do que nunca – geralmente, empregando diferentes tipos/estilos de códigos maliciosos para atacar sistemas de usuários finais.

Em resumo, o ambiente de ameaças é extremamente amedrontador - seja você uma pequena empresa iniciante ou uma grande empresa. E a infinidade de produtos pontuais e a mescla de soluções estranhas de fornecedores de segurança do mercado não facilitam em nada a questão. No entanto, há vários pontos a se contemplar para conseguir criar uma estratégia de gerenciamento unificado de ameaças.

1. Saiba quem/o que/onde. Sua política de segurança deve ser fluida de acordo com o tipo de usuário final e do ambiente desse usuário. A capacidade para ajustar as definições de segurança de acordo com as funções de trabalho dos usuários e seus ambientes ( a rede corporativa, o escritório de um usuário final, ou um aeroporto) é um conceito básico que toda política de segurança deveria empregar.

2. Combine o Antivírus. Ao contrário da opinião popular, o AV não está morto, mas se você usá-lo como uma defesa stand-alone, sua reputação poderá ter esse fim. Você deve combinar o AV com outras funcionalidades, pois como sua única defesa contra malwares, o AV é completamente ineficaz. Mais exatamente, ele deve ser integrado com outras soluções de proteção contra ameaças mais proativas.

3. Aplique patches sempre. Trata-se de algo simples na teoria, mas você ficaria surpreso em constatar como são poucos os técnicos de TI que realmente seguem os processos e as ferramentas necessárias para ter êxito aqui. Talvez isso se deva ao fato de que, embora a aplicação de patches seja teoricamente simples, ela pode se tornar devastadora se você estiver pensando em executá-la máquina por máquina. Isso sem mencionar o fato de que a complexidade pode aumentar rapidamente se você tiver tipos diferentes de plataformas e uma vasta gama de aplicações.

Mas a introdução de software na mistura muda tudo. Este processo se torna exponencialmente mais fácil e com bem menos pontos de redundância com a ajuda de uma ferramenta de gestão de patches integrada. Você pode implementar patches em milhares de máquinas com mais eficiência e índices de sucesso significativamente mais altos.

4. Lista Negra, Branca e Cinza. Muitas soluções reportam ter recursos de blacklisting (lista negra). Mas tentar bloquear todas as potenciais ameaças/aplicações o tempo todo não é muito prático nos dias de hoje. Seria melhor que você permitisse apenas as coisas boas - ou seja, pré-aprovar quais aplicações podem rodar, ou criar uma lista branca (whitelisting).

Você pode, então, monitorar o comportamento das aplicações. Procurando atividades potencialmente prejudiciais e pré-aprovando aplicações conhecidas, você vai conseguir uma área cinza. E, neste caso, isso é uma boa coisa. Melhor ainda, amarre a aprovação a sistemas de implementação confiáveis e torne sua vida ainda mais fácil.

5. Tudo está no HIPS. Sistema de prevenção de intrusão baseado em host. Um HIPS monitora seus sistemas em busca de uma atividade imperfeita. Ele então registra informações sobre esta atividade, tenta evitá-la e grava o incidente. A capacidade para rastrear atividades maliciosas e também registrá-las permite que você, além de proteger melhor sua rede, ainda possa adotar uma posição mais proativa de proteção no futuro - identificando tipos de bugs e padrões.

É quase certo que sua organização será alvo de uma violação – ou tentativa de violação – em algum momento. Você deve se preparar para o "quando" para reduzir o "se" e se concentrar em eliminar a possibilidade do endpoint ser uma porta aberta ao inimigo.

Embora estes cinco passos básicos não sejam de modo algum abrangentes, eles podem servir como um embasamento adequado para qualquer política de segurança de TI - seja ela grande ou pequena - e ajudará a proteger sua organização da crescente ameaça de ataques.

Marcelo Lava é diretor geral da LANDesk América Latina e Brasil

Tuesday 13 March 2012

Ofcom quer permitir 4G nas frequências de 3G

O Reino Unido pode ter seus primeiros serviços de 4G da telefonia móvel ainda este ano, mesmo antes de definir os termos do leilão de frequências específicas para tais serviços, estimado para acontecer apenas entre 2013 e 2014.

Isso porque a Ofcom, o órgão regulador britânico, sinalizou nesta terça, 13, em comunicado oficial que está disposta a atender ao pedido da Everything Everywhere, joint-venture entre France Telecom (Orange) e Deutsche Telekom (T-Mobile), para reutilizar suas frequências de 1,8 GHz para ofertar serviços com a tecnologia LTE.

De acordo com a análise preliminar da Ofcom, a permissão para reutilização do espectro por parte da Everything Everywhere para tal oferta não apenas não distorceria o cenário competitivo, como ainda “traria provavelmente benefícios materiais aos consumidores, incluindo banda larga móvel com maiores velocidades e – dependendo de como a Everything Everywhere use o espectro – potencialmente aumentar a cobertura de banda larga móvel nas áreas rurais”.

A Ofcom está inclinada a permitir a reutilização de espectro, mas deu aos interessados quatro semanas para se manifestar sobre esta proposta.

A agência reguladora britânica informou estar considerando a liberação do uso para 4G das frequências de 900 MHz e 1,8 GHz e lembrou que em 2011 já havia liberado o uso de espectro de 2G para serviços 3G.

Em fevereiro, a operadora UK Broadband anunciou que lançaria uma rede 4G ainda em 2012, utilizando suas frequências na faixa de 3,5 GHz.

Monday 12 March 2012

Pesquisa global sobre cloud da Cisco prevê crescimento de 12 vezes superior do tráfego em cloud até 2015

Em 2014, o tráfego na nuvem atingirá 51% do total dos data centers. A previsão é de que o tráfego global na nuvem atinja 1.6 zetabytes em 2015 e excederá um terço de todo o tráfego dos data centers até 2015.

No Índice Global de Nuvem (2010-2015) lançado hoje, a Cisco estima que o tráfego global de computação em nuvem irá crescer 12 vezes, de 130 exabytes para um total de 1,6 zetabytes anuais em 2015, 66% de taxa de crescimento anual composto (CAGR no acrônimo em inglês).

Um zettabyte é igual a um sextilhão de bytes ou a um trilhão de gigabytes. 1,6 zetabytes equivale a:

  • 22 trilhões de horas de música transmitidas ao vivo.
  • 5 trilhões de horas de conferências de negócios pela Internet com uma webcam.
  • 1,6 trilhão de horas de transmissão de vídeo de alta definição (HD) on-line.

Nuvem é o componente de maior crescimento de tráfego em data center, que por si só vai crescer quatro vezes em um CAGR de 33% para atingir 4,8 zetabytes anualmente até 2015. Estima-se hoje que a nuvem é responsável por 11% do tráfego em data centers, crescendo mais de 33% do total em 2015. A nuvem está se tornando um elemento crítico para o futuro da tecnologia da informação (TI) e entrega de vídeo e conteúdo.

A maior parte do tráfego em data centers não é causada por usuários finais, mas pelos próprios data centers e nuvens, atividades empresariais que são largamente transparentes aos usuários finais - como backup e replicação. Em 2015, 76% do tráfego nos data centers permanecerão nos próprios data centers, enquanto as cargas de trabalho migram entre diversas máquinas virtuais e realizam tarefas em segundo plano, 17% do tráfego total deixa o data center para ser entregue ao usuário final, enquanto 7% do total do tráfego adicional é gerado entre os data centers via atividades como cloud-bursting, replicação de dados e atualizações.

Visão Geral

  • O Índice Global de Nuvem da Cisco (2010-2015) foi desenvolvido para estimar o crescimento e as tendências do tráfego global baseado em nuvem data centers IP. Como a rede e data center está se tornando intrinsecamente ligada na prestação de serviços em nuvem, este estudo complementa estudos de tráfego de rede existente, fornecendo novas informações e visibilidade para as tendências emergentes que afetam data centers e arquiteturas em nuvem.
  • O índice é gerado a partir de uma modelagem e análise de diversas fontes primárias e secundárias, incluindo mais de 30 terabytes de dados gerados a cada mês durante o ano passado, a partir de uma variedade de data centers ao redor do globo, as medidas de mais de 45 milhões de testes de velocidade de banda larga e previsões de mercado por terceiros.
  • Também inclui a previsão de transição de carga de trabalho de data centers tradicionais para a nuvem, bem como uma análise de prontidão de nuvem em grandes regiões geográficas em relação às habilidades de suas redes em suportar vários tipos de negócios e consumidores de serviços de computação em nuvem.
  •  

Detalhes e destaques adicionais do Índice Global de Nuvem da Cisco.

Nuvem será responsável por um terço do total do tráfego do centro de dados

  • Globalmente, o tráfego de cloud crescerá de 11% (11 exabytes por mês e 130 exabytes por ano) do total de tráfego de data center em 2010 para mais de um terço do total de tráfego de data center (34% especificamente -137 exabytes por mês e 1.6 zettabytes anualmente) em 2015.
  • Maior virtualização e economias de escalas melhoradas serão um fator chave para a transição para a nuvem.

Tráfego de nuvem no mundo está crescendo duas vezes mais rápido que o tráfego global de data center

  • A transição para os serviços de nuvem está levando o tráfego de nuvem para uma taxa de crescimento que é duas vezes maior que o tráfego global de data center. Tráfego global de data center vai crescer quatro vezes (um CAGR de 33%) de 2010 a 2015, enquanto o tráfego global de nuvem vai crescer doze vezes (um CAGR de 66%) no mesmo período.
  • Data centers em nuvem oferecem um melhor desempenho, maior utilização e maior facilidade de gestão do que os data centers tradicionais. A virtualização serve como um importante catalisador permitindo a consolidação de hardware e software, uma maior automatização uma abordagem de segurança integrada.

Crescimento global do tráfego de data center: um aumento de 4 vezes até 2015

  • Previsão é de que o tráfego de data center quadruplique de 1.1 zettabyte em 2010 para 4.8 zettabytes anuais em 2015, representando um CAGR de 33%.

Fonte de tráfego dos data centers: A maior parte permanece dentro do próprio data center

  • De todo o tráfego de data center em 2015, 76% permanece no próprio data center, através de atividades como armazenamento e autenticação via máquinas virtuais.
  • 17% do tráfego dos data centers sendo entregues aos usuários finais.
  • 7% é gerado entre data centers por meio de atividades como backup e replicação.

Pico de atividade do usuário final 2 vezes meia maior do que a média, em 2015

  • Devido predominantemente ao aumento de serviços ao consumidor baseados em vídeo, o tráfego data center para usuário tem alguns picos de atividade significativos. Bem como o horário nobre, a quantidade média de tráfego por hora nos data centers durante os períodos de pico deverá subir até duas vezes e meia, exigindo a necessidade de planejar para capacidade adicional a partir de data center e também da nuvem, bem como da rede. O modelo on-demand da nuvem se adéqua perfeitamente para atender esse tipo e demanda variável.

Transição de carga de trabalho

  • Em 2010, 21% das cargas de trabalho foram processadas em um data center baseado em nuvem, com 79% sendo manuseados em um data center tradicional.
  • 2014 será o primeiro ano em que as cargas de trabalho mudam em direção à nuvem pela primeira vez - 51% do total de cargas de trabalho estarão em um ambiente de nuvem contra 49% no espaço tradicional de TI.
  • No geral, a carga de trabalho no data center de 2010 a 2015 crescerá 2.7 vezes, no entanto a carga de trabalho da nuvem de 2010 a 2015 está crescendo 7 vezes ao longo do período de previsão.

Prontidão global da nuvem

  • Para avaliar a prontidão, foram analisados e avaliados vários atributos, onipresença de banda larga, velocidade média de upload e download e latência média de cada região geográfica.
  • Todas as regiões incluídas no estudo - Ásia-Pacífico, Oriente Médio e África, Europa Ocidental, Europa Central e Oriental, América Latina e América do Norte - estão prontas para aplicações de computação em nuvem, como redes sociais e conferência via web.
  • Para aplicações intermediárias de computação em nuvem, tais como chat de vídeo e streaming de vídeo em alta definição, Ásia Pacífico, Europa Ocidental, Europa Central e Oriental, e América do Norte foram considerados como tendo capacidade média de rede, suficientemente forte para suportar esses serviços.
  • Nenhuma região foi avaliada como capaz de suportar aplicações de nuvem avançadas, como videoconferência em alta definição e jogos avançados, no entanto, de forma agregada, alguns países dentro de cada região - como Coréia do Sul e Japão - têm condição de fazê-lo atualmente.

Declaração de apoio

Suraj Shetty, vice-presidente de produtos e marketing de soluções da Cisco
"O tráfego de nuvem e data center está explodindo, impulsionado pela demanda de usuário para acessar volumes de conteúdo em dispositivos de sua escolha. O resultado: maior virtualização de data center e relevância da rede para aplicações em nuvem e a necessidade de dar sentido a uma situação dinâmica em evolução. O índice global de nuvem da Cisco fornece insights sobre esse crescimento do tráfego e tendências para que as organizações possam tomar decisões estratégicas de longo prazo. Vamos continuar a desenvolver e lançar o Índice Global de Nuvem em uma base regular e contínua, contribuindo para o esforço mundial para a "prontidão da nuvem".

Fonte: Site Cisco

Friday 9 March 2012

Symantec identifica nova onda ciberataques como mediação e arbitragem de empresas

A Symantec Corp anunciou nesta quarta-feira, 7, os resultados do Relatório Symantec Intelligence de fevereiro que mostram uma nova onda de ciberataques desenvolvida para personificar um conhecido serviço de mediação e arbitragem de empresas na América do Norte.

As empresas são atacadas por e-mails que se apresentam como sendo do US Better Business Bureau e que foram socialmente desenvolvidos para sugerir que há um processo contra elas. A mensagem diz que os detalhes da denúncia podem ser encontrados no arquivo anexo, que leva a um PDF contendo um arquivo executável incorporado, ou a uma URL que leva a um malware.

“Esses ataques são reminiscências de incidentes semelhantes que foram relatados pela primeira vez em 2007, quando os executivos C-Level foram alvos de e-mails que se passavam por mensagens originadas no US Better Business Bureau (BBB). A nova onda de ataques usa técnicas de engenharia social semelhantes às dos ataques de 2007, embora os invasores estejam usando recentemente técnicas bem mais avançadas, incluindo polimorfismo de servidores, tornando-as especialmente variáveis por natureza”, disse Paul Wood, gerente de inteligência de cibersegurança da Symantec.

“O polimorfismo de servidores permite que o invasor tenha uma ação exclusiva de malware para cada utilização, a fim de evitar a detecção por um software antivírus tradicional. Scripts PHP são comumente usados no site do invasor para gerar o código malicioso on-the-fly. Como Proteus, o deus grego dos mares, a natureza continuamente mutante desses ataques os torna muito difíceis de serem reconhecidos e detectados usando as defesas mais tradicionais baseadas em assinaturas”, comenta Wood.

O relatório de Fevereiro também revelou que criminosos - explorando o clima da época - se mostraram particularmente notáveis na semana do Dias dos Namorados nos Estados Unidos, com o volume de spam citando o evento mostrando-se três vezes e meia maior que a média diária nessa semana. O volume começou a cair novamente depois de 14 de fevereiro, com um pico tardio ocorrendo em 16 de Fevereiro; quando o volume médio diário de e-mails referenciando o dia especial quase sextuplicou.

Outros destaques do relatório:

Spam: em fevereiro de 2012, a taxa global de spam no tráfego de e-mails caiu um ponto percentual em relação a janeiro de 2012, atingindo 68,0 por cento (um em 1,47 e-mail). Os números seguem a tendência contínua de queda gradual dos níveis globais de spam, desde a última parte de 2011.

Phishing: em fevereiro, a atividade de e-mails do tipo phishing caiu 0,01 ponto percentual, levando a taxa média global para um em 358,1 e-mails (0,28 por cento) incluindo alguma forma de ataque phishing.

Ameaças transportadas por email: A taxa global de vírus transportados pelo tráfego de e-mail foi de um em 274,0 e-mails (0,37 por cento) em Fevereiro, um aumento de 0,03 ponto percentual em relação a janeiro de 2012. Em Fevereiro, 27,4 por cento do volume dos malware transportados por e-mail continham links para sites maliciosos, valor 1,6 ponto percentual inferior ao número de janeiro de 2012.

Ameaças de malware baseado na Web: em fevereiro, o relatório identificou uma média de 2.305 sites na Web por dia abrigando malware e outros programas potencialmente indesejados, incluindo spyware e adware. Isso representa um aumento de 9,7 por cento em relação a Janeiro de 2012.

Ameaças de endpoint: O malware bloqueado com mais frequência no último mês foi o WS.Troja n.H. Ele é uma detecção genérica heurística baseada na nuvem para arquivos com características de uma ameaça ainda não classificada. Os arquivos detectados por essa heurística são apontados pela Symantec como um risco para os usuários e, portanto, são impedidos de acessar o computador.

Tendências geográficas:

Spam

• A Arábia Saudita manteve-se como a área geográfica que mais foi alvo de spam em Fevereiro, com uma taxa de 76,2 por cento.
• O spam representou 68,8 por cento do tráfego de e-mails na África do Sul e 72,4 por cento no Brasil.
• Nos Estados Unidos, 68,9 por cento dos e-mails eram spam. No Canadá, essa taxa foi de 68,5 por cento.
• O nível de spam no Reino Unido foi de 68,6 por cento.
• O spam representou 70,0 por cento do tráfego de e-mails na Holanda; 67,9 por cento na Alemanha e 68,8 por cento na Dinamarca.
• Na Austrália 68,3 por cento de emails foram bloqueados como spam, em comparação com 67,9 por cento em Hong Kong; 67,0 em Cingapura; e 65,1 por cento no Japão.

Ataques de phishing

• A Holanda permaneceu sendo o país que mais foi alvo de ataques de phishing em Fevereiro, com um em 152,8 e-mails identificado como phishing.


• Os níveis de phishing nos Estados Unidos foram de um em 753,3. No Canadá, foram de um em 427,9.


• Os níveis de phishing foram de um em 700,9 na Alemanha e de um em 461,9 na Dinamarca.


• A atividade de phishing respondeu por um em 499,9 e-mails na Austrália; por um em 1.045 em Hong Kong; por um em 4.762 no Japão e por um em 689,9 em Cingapura.


• No Brasil, um entre 863,9 emails foi bloqueado como phishing.

Ameaças transportadas por e-mail

• Luxemburgo se tornou a área geográfica com a maior proporção de atividade de e-mails maliciosos em Fevereiro, com um em 63,9 e-mails identificado como malicioso.


• No Brasil, um entre 534,7 e-mails possuía conteúdo malicioso.


• No Reino Unido, um em 154,5 e-mails foi identificado como malicioso, em comparação com a África do Sul, onde um em 184,9 e-mails foi bloqueado como malicioso.


• Os níveis de vírus transportados por e-mail atingiram um em 436,5 nos Estados Unidos e um em 294,0 no Canadá.


• A atividade de vírus atingiu um em 369,2 na Alemanha e um em 611,7 na Dinamarca.


• Na Austrália, um em 387,6 emails era malicioso. Essa taxa foi de um entre 1.167 no Japão, em comparação com o valor de um em 452,8 registrado em Cingapura.

Tendências verticais

• O setor Automotivo ultrapassou o de Educação, tornando-se o segmento que mais foi alvo de spam em Fevereiro, com uma taxa de 70,9 por cento. A taxa de spam no segmento de Educação foi de 70,6 por cento.


• A taxa de spam para o setor Químico & Farmacêutico foi de 68,9 por cento em comparação com 68,4 por cento para Serviços de TI; 68,6 por cento para Varejo; 68,5 por cento para o setor Público; e 68,0 por cento para Finanças.


• O setor Público permaneceu sendo o maior alvo das atividades de phishing em Fevereiro, com um em 84,1 e-mails incluindo um ataque de phishing.


• Os níveis de phishing para o setor Químico & Farmacêutico atingiram um em 726,2 em comparação com as taxas de um em 670,6 para o setor de Serviços de TI; um em 523,7 para Varejo; um em 150,0 para Educação; e um em 328,6 para Finanças.


• Com um em 71,2 e-mails sendo bloqueadas como malicioso, o setor Público manteve-se como o maior alvo em fevereiro.


• A taxa de vírus para o setor Químico & Farmacêutico atingiu um em 328,5 em comparação com as taxas de um em 405,4 para o setor de Serviços de TI; um em 364,7 para Varejo; um em 124,1 para Educação e um em 297,8 para Finanças.

Tendências de mercado

• A taxa de spam para pequenas e médias empresas (1-250) foi de 68,3 por cento em comparação com 68,9 por cento para grandes companhias (2500+).


• Ataques phishing que tiveram como alvo empresas de pequenas e médio porte (1-250) representaram um em 265,7 e-mails, em comparação com a taxa de um em 361,9 para grandes empresas (2500+).


• Ataques transportados por e-mails maliciosos cujo alvo foram pequenas e médias empresas (1-250) representaram um em 262,5 e-mails, em comparação com a taxa de um em 261,7 para grandes companhias (2500+).

O Relatório Intelligence da Symantec fornece ainda mais detalhes sobre todas as tendências e números descritos acima bem como outras tendências geográficas e verticais.