Monday 31 January 2011

O Windows 7 e os SSDs

Os SSDs (Solid-state drive) são um tipo de dispositivo sem partes móveis para armazenamento não volátil de dados digitais. Eles são construídos em torno de um circuito integrado semicondutor, o qual é responsável pelo armazenamento, o que os diferencia dos sistemas magnéticos presentes nos HDDs (Hard Disk Drive).

A tecnologia SSD amadureceu ao longo da última década, e agora os drives estão finalmente começando a serem comercializados em grande escala. Mas será que os SSDs estão prontos para substituírem de vez o hard disk comum?

Desde 1965, a tecnologia de armazenamento de dados obteve alguns avanços notáveis, considerando que:

· OS HD passaram de 3,75 MB para mais de 1 terabyte, número mais de 270 mil vezes superior.

· O preço caiu de $15.000 por MB para $0,0001 por MB ($100 por 1 TB), uma melhora de 150 milhões de vezes.

· O tempo de acesso caiu de 0.1 segundos para alguns milésimos de segundo.

Com esses impressionantes números, a questão agora é se o SSD conseguirá acompanhar a velocidade, custo e capacidade dos HDD. Os SSDs usam microchips que retém os dados em uma memória não volátil e sem partes móveis. Como vantagem, quando comparados com os HDDs tradicionais, os SSDs são mais resistentes a danos, mais silenciosos e possuem um tempo de acesso menor. Contudo, as principais desvantagens ainda são preço e capacidade de armazenamento. O “custo por MB” de um SSD ainda é consideravelmente maior do que do HDD.

Windows 7 e SSD

Quando o Windows 7 estava ainda em sua versão Beta, o site Tweaktown publicou alguns benchmarks comparando o sistema com o Windows Vista com Service Pack 1, em suas versões de 64 bits, utilizando o software HD Tune Pro. A performance do SSD foi testado em ambos com o mesmo hardware, em um único driver Patriot Warp2 128 GB SSD SATA.

A media de velocidade de leitura foi de 3 a 5 MB /s mais rápida no Windows 7 do que o Windows Vista SP1 enquanto a velocidade máxima de leitura foi 10 MB / s superior. Já na velocidade de gravação de dados, o Windows 7 também superou o Windows Vista SP1 em 10 MB /s.

Além da comparação com outras versões do Windows, vale a pena comparar também a performance dos SSDs com a dos HDDs utilizando o novo sistema operacional.

Recenetemente, o site Windows 7 News também publicou um pequeno comparativo com o tempo de inicialização do sistema utilizando um HDD e um SSD.

A melhora foi de 62%. Isso significa que a junção do Windows 7 com os SSDs podem trazer benefícios incríveis assim que mais fabricantes começaram a adotar a tecnologia. Contudo, o custo e a capacidade de armazenamento ainda são questões relevantes. Hoje, os drivers SSDs ainda são consideravelmente mais caros que os HDDs e possuem uma capacidade menor.

Portanto, é provável que antes que um número grade de usuários comecem a utilizá-lo, a diferença nesses dois critérios precisarão diminuir entre as duas tecnologias.

Tensão no Egito mostra a importância dos pontos de estrangulamento da internet

Os recentes acontecimentos na Tunísia e no Egito com relação à internet chamaram a atenção de vários especialistas quanto ao perigo de se ter recursos demais de telecomunicações em um único local físico.

O analista Andrew Blum, do site "The Atlantic", notou que, apesar da densa cobertura da mídia para o fato do Egito ter se desconectado da internet global, não houve muito falatório sobre um anúncio recente feito nos EUA: a Verizon, gigante das comunicações, anunciou que compraria por US$ 1,4 bilhão a empresa Terremark, uma "companhia de computação em nuvem", segundo comunicado da compradora. A aquisição aceleraria a estratégia "tudo-como-um-serviço"da Verizon. O comunicado oficial pode ser visto em < http://bit.ly/ver_terre >.

Acontece que a Terremark não é somente uma empresa de cloud computing. Dentre seus data centers nos EUA, Europa e América Latina, ela é dona de um dos edifícios mais importantes da internet global, uma poderosa fortaleza de concreto quase fora da área central de Miami. Esse prédio é conhecido como o NAP das Américas. < http://bit.ly/nap_am > (O NAP do Brasil da Terremark fica em Barueri, SP < http://bit.ly/nap_br >)

Essa instalação faz com que Miami seja uma das cinco cidades mais interconectadas do mundo, à frente de Chicago, San Francisco e Washington D.C. É o único local nos EUA em que o tráfego digital óptico, Ethernet, MPLS, de voz e internet é controlado de um único prédio físico.

A internet é uma maçaroca de redes cujos switches e roteadores se interligam fisicamente. No caso do Egito, por não ser um nodo significativamente importante da internet, um punhado de cabos de fibra óptica reunidos em um só lugar representaria o tráfego inteiro de dados no país.

No caso do data center de Miami, porém, trata-se do ponto de encontro de mais de 160 redes do mundo inteiro, que lá se interligam por ser um edifício de segurança primorosa, com sistemas redundantes de alimentação elétrica e grossíssimas paredes de concreto, capazes de resistir a um furacão de categoria 5.

Porém, o mais importante, é que no NAP das Américas é totalmente neutro no que tange às operadoras. É como se fosse "a Suíça da internet", um território em que redes competidoras podem se interligar mutuamente.

No entanto, com a compra pela Verizon, a coisa muda de figura. É claro que a companhia menospreza a situação e diz que não há motivo para preocupações, já que a Terremark será comprada como uma subsidiária, mantendo seu status de neutralidade com relação às redes. Mas é inegável que parece um pouco incômodo que uma única empresa possua uma instalação física tão importante.

Vale lembrar que recentemente a Google comprou por US$ 1,9 bilhão seu novo prédio em Nova York, no número 111 da 8ª Avenida. Trata-se de outro edifício que é um dos mais importantes da internet, sendo um terço de seu espaço físico ocupado por empresas de telecomunicações, representando centenas de redes independentes. E agora, a Google é proprietária do prédio inteiro e, obviamente, planeja crescer dentro dessa construção, já que existe pouquíssimo espaço restante na ilha de Manhattan para que a empresa se expanda mais.

Andrew Blum, ao final de sua análise, expressa sua compreensível preocupação, evocando o fato de que, na semana passada, um país africano de 80 milhões de habitantes conseguiu emudecer a internet nacional em poucas horas, aproveitando-se do fato de que a grande rede é uma entidade física.

Ou seja, em qualquer situação é importante saber quem controla os nodos dessa rede. E, com isso, ele conclui que, com essas duas recentes aquisições, Google e Verizon podem ter estremecido as fundações de uma internet aberta, competitiva e, sobretudo, livre.

Android já é o sistema mais usado em smartphones, afirma pesquisa

O sistema operacional Android, da Google, superou no quarto trimestre de 2010 o líder histórico do mercado de smartphones Symbian, da Nokia, como plataforma mais popular.

A informação foi apurada pela empresa de pesquisa Canalys (leia a análise completa neste link , em inglês), que divulgou os dados nesta segunda-feira.

Juntos, todos os fabricantes de celulares venderam um total de 32,9 milhões de aparelhos Android no último trimestre do ano passado, contra as 31 milhões de unidades de modelos com Symbian vendidas.

Em outro levantamento, o Android assumiu uma participação de 22% do mercado de computadores tablet no quarto trimestre, continuando a avançar sobre a líder isolada do segmento, a Apple, criadora do iPad.

Segundo a Strategy Analytics, a participação total da Apple em tablets caiu de 95% no terceiro trimestre para 75% no quarto. Enquanto isso, o mercado como um todo cresceu 120%, chegando a quase 10 milhões de unidades.

O tablet Galaxy Tab, da Samsung, foi o principal competidor do iPad no trimestre passado. A companhia afirma que vendeu 2 milhões de unidades nos últimos três meses de 2010. Já a Apple reporta vendas de 7 milhões de iPads. Não ficou claro se as empresas se referem exatamente ao mesmo período de vendas.

A Strategy Analytics prevê que o Android aumente sua participação de mercado no primeiro trimestre deste ano, conforme novos aparelhos como o Xoom, da Motorola , devem começar a ser vendidos.

Fonte : Jornal O Globo

Friday 28 January 2011

Android Honeycomb

Google apresenta prévia do Honeycomb, versão do Android feita para tablets

O Google apresentou nesta sexta-feira uma prévia do Honeycomb, a versão 3.0 do

Android, feita especialmente para tablets, que incluirá um novo visual, além de navegador e teclado atualizados. A prévia foi apresentada para os desenvolvedores testarem seus aplicativos e estudarem os novos recursos.

Na quarta-feira, o chefe da equipe de desenvolvimento do Android, Xavier Ducrohet, disse que uma versão final do kit estará disponível "nas próximas semanas". Isso permitirá que os desenvolvedores publiquem aplicativos para o Honeycomb no Android Market, a loja virtual do Google.

Os tablets devem ser a grande sensação este ano, impulsionados pelo sucesso do iPad, da Apple. Em janeiro, durante a Consumer Electronics Show, em Las Vegas, empresas como Motorola e Asus exibiram dispositivos portáteis equipados com o Honeycomb. O Motorola Xoom deve ser o primeiro tablet com o Honeycomb a chegar o mercado, em março.

O Google definiu uma série de características do Honeycomb em seu site Android Developers, muitas das quais foram mostradas em apresentações na CES. Entre elas está uma "barra de sistema" na parte inferior da tela, que mostra notificações e aplicativos usados recentemente e pode ser usada para navegar no tablet.

O Honeycomb também terá um teclado redesenhado para tornar mais fácil e rápido digitar na tela de um tablet. Tablets equipados com o Honeycomb também permitirão aos usuários conectar um teclado via USB - algo que o iPad não faz - ou por Bluetooth.

Um navegador atualizado permitirá o uso de abas para navegação, assim os usuários não terão de abrir janelas individuais para cada página. Essa já é uma característica encontrada em qualquer navegador de desktop, mas ainda ausente em smartphones. Haverá uma versão atualizada do YouTube, com uma espécie de muro 3D para se navegar pelos vídeos.

Apresentando o Honeycomb no Fórum Econômico Mundial, em Davos, na Suíça, o CEO do Google, Eric Schmidt, disse que ele terá também um recurso de tradução em tempo real de conversas. O software da câmera também será atualizado, para tornar mais rápido o controle de exposição, foco, flash, zoom e outras opções.

O Honeycomb também funcionará em smartphones, mas os aplicativos serão diferentes em telas menores. O Google tem descrito a versão 3.0 do Android como um sistema que permitirá múltiplas visões dos aplicativos, depedendo se eles estiverem rodando em um celular ou em um tablet. Por exemplo, o Gmail no tablet mostrará uma lista de emails em uma coluna e o corpo da mensagem em outra. No telefone, haverá apenas uma coluna por vez, como já acontece.

O Google lançou seu primeiro software Android para celulares em 2008, no smartphone G1, da HTC. Desde então, expandiu-se para mais de 170 smarthpones e vários tablets.

Fonte: O Globo (www.oglobo.com.br)

Projeto de lei obriga lan houses a manter registros dos clientes

Proposta que torna obrigatória a manutenção de registro dos usuários de lan houses e estabelecimentos similares que oferecem acesso à internet está em análise na Câmara dos Deputados. O Projeto de Lei 7270/10, do deputado Wellington Fagundes (PR-MT), prevê que o cadastro deverá ser mantido por dois anos e terá os seguintes dados: endereço e telefone do usuário, número de identidade, equipamento usado e horários de início e do término da utilização do computador.


A proposta determina ainda que os dados sejam armazenados por meio eletrônico, ficando proibida sua divulgação, exceto mediante autorização do cliente, pedido formal do seu representante legal ou ordem judicial.


Fagundes argumentou que as lan houses têm sido usadas com frequência para realização de atividades ilegais por meio da internet. O deputado lembrou que isso ocorre pelo fato de esses estabelecimentos permitirem o acesso público não identificado à rede mundial de computadores.

"Esses estabelecimentos são normalmente frequentados por crianças e adolescentes. Ao inibir a prática de delitos, a medida resguardará a segurança dos menores, afastando os delinquentes desses estabelecimentos", afirmou o parlamentar.


O projeto de Fagundes ressurge no vácuo deixado em razão da indecisão dos deputados sobre se as regras para o armazenamento das informações de conexões dos usuários por parte dos provedores deverão fazer parte do marco civil ou do projeto de lei sobre crimes virtuais (PL 84/99), que tramita em regime de urgência na Câmara.

O projeto 7270/10 será arquivado pela Mesa Diretora no dia 31 de janeiro, por causa do fim da legislatura, mas poderá ser desarquivado pelo seu autor, que foi reeleito.

Nesse caso, o texto será analisado pelas comissões de Ciência e Tecnologia, Comunicação e Informática; e de Constituição e Justiça e de Cidadania; e também pelo Plenário.

Com informações da Agência Câmara.

Tuesday 25 January 2011

Back-up & Recuperação: O dilema de TI para SMBs

Assim como as grandes companhias, as empresas de pequeno e de porte médio (PMEs) dependem de tecnologia de informação (TI) para auxiliá-las a terem sucesso. Na operação de uma pequena firma de advocacia, ou uma companhia construtora de médio porte, o desempenho dos negócios está cada vez mais atrelado à habilidade de manter os sistemas operando em eficiência máxima.


Porém, em organizações com capital humano limitado, a gestão e manutenção de tecnologia podem representar um trabalho difícil. A monitoração e manutenção rotineiras do sistema podem utilizar tempo e recursos que seriam melhor utilizados para administrar os negócios e torná-los mais competitivos.

E quando alguma coisa não funciona corretamente, pode se tornar um pesadelo — os funcionários não conseguem realizar plenamente suas tarefas, clientes não recebem serviço adequado, pedidos não podem ser processados e suprimentos não podem ser encomendados.

Os provedores de serviços gerenciados podem atuar como uma extensão da sua empresa, oferecendo serviços que auxiliam na prevenção de problemas, antes que os mesmos aconteçam, e repará-los com rapidez e eficiência quando ocorrerem, minimizando o impacto nas operações de negócios.


O dilema que as empresas e organizações se deparam é que à medida que cresce a confiança em TI, a alocação de pessoal, orçamentos e recursos não conseguem acompanhar o mesmo ritmo. Essa é a razão porque um número crescente de companhias estão se voltando para provedores de serviços gerenciados que auxiliam a monitorar, administrar e manter os ambientes.

A maioria das organizações entende o valor da TI, e como as soluções certas são cruciais para dinamizar as operações e processos. As PMEs precisam da tecnologia no auxílio à competição com eficiência contra grandes corporações. Analistas de mercado relatam que a adoção de novas soluções e serviços de TI pelas PMEs está apresentando um crescimento em índice mais rápido do que em empresas grandes.


Para muitas empresas manterem-se atualizadas com tudo que seja necessário: back-ups, correções (patches) de softwares, segurança—pode tornar-se problemático. Para manter tudo funcionando tranquilamente, é preciso utilizar a maior parte do tempo cuidando disso e deixando menos tempo para projetos estratégicos, os quais oferecem suporte às iniciativas de negócios.


Tom Peters, Gerente de TI da Salesian Missions, uma organização sem fins lucrativos, deparou-se com este dilema. “Eu diria que de 25% a 35% do meu tempo estava sendo consumido na gestão do gabinete do servidor, e em manter atualizada a manutenção do gabinete do servidor. Consumi muito tempo também ‘apagando fogo’. Agora, eu tenho tempo para verificar os nossos serviçoes de filtragem de spam, de serviço Internet, os provedores do sistema telefônico, e implantar uma solução de voz sobre Protocolo Internet (VoIP)—e praticamente uma extensão completa de outras coisas que já podemos começar a aperfeiçoar”.


Quando tudo dá errado, pode se tornar um pesadelo. Quando um problema acontece, mesmo que seja por um curto espaço de tempo, pode representar uma perda substancial de receita para uma empresa. O nível de risco e o potencial prejuízo para os negócios aumentam exponencialmente à medida que aumenta o tempo de indisponibilidade dos sistemas.


Na HB Meats and Hoffbrau Steaks, “Se um servidor ficar paralisado, nosso dia fica arruinado”, afirma Aron Fogiel, sócio geral e presidente. A empresa opera uma companhia de carnes e cinco restaurantes na área de Dallas, em Texas.

“Quando um servidor fica paralisado, ou se surgir algum problema com o servidor, ele nos deixa fora do ar. Simplesmente fecha a companhia—não podemos rastrear os produtos na área de corte entrando e saindo do inventário. Do ponto de vista de contabilização, para o grupo de carnes como o de restaurantes, precisamos ter informações de entrada diariamente. Se perdemos um dia, a produtividade fica danificada”.


À medida que crescem os requisitos para aplicativos e infraestruturas mais sofisticadas, as PMEs também precisam dar suporte à uma mistura mais complexa de diferentes sistemas. Uma quantidade maior de empresas está adotando tecnologias mais avançadas, tais como virtualização para ajudar a reduzir os custos de TI.


Devido à limitação de equipes e orçamentos, a tomada de decisões inteligentes é necessária para avaliar se terceiros podem fazer um trabalho melhor. Ao liberar a manutenção rotineira e a solução de identificação e reparo de problemas à um provedor confiável de serviços, muitas PMEs podem obter mais valor de seus investimentos em TI e focar em conseguir mais sucesso para os seus negócios.


Daniel Neiva, diretor de Vendas para pequenas e médias empresas e consumidor final da Dell Brasil.

Monday 24 January 2011

Cloud pode ser usada para revelar senhas de redes Wi-Fi

Novo método promete quebrar a proteção de redes sem fio em cerca de seis minutos, segundo pesquisador.

O pesquisador de segurança alemão Thomas Roth encontrou um uso inovador para computação em nuvem: "crackear" (quebrar a proteção) redes sem fio que dependam de chaves pré-compartilhadas, como as encontradas em residências e pequenas empresas.

Para isso, Roth criou um programa executável na plataforma de computação em nuvem Elastic Cloud Computing (EC2), da Amazon, para percorrer 400 mil possíveis senhas por segundo. Embora essa quantidade seja impressionante, ela é possível porque o EC2 permite que unidades de processamento gráfico (GPUs) sejam usadas para tarefas de computação.

Em outras palavras, este método não se destina a roubar a sua senha ou explorar uma falha na tecnologia de sua rede wireless. O software de Roth gera milhões de senhas e testa uma por uma até permitir acesso, utilizando os recursos, teoricamente, infinitos da computação em nuvem.

A aquisição de computadores para por em prática o método do pesquisador custaria dezenas de milhares de dólares, mas, segundo ele, a senha de uma rede Wi-Fi comum poderia ser obtida pelo EC2 e seu software em cerca de seis minutos. Ele provou isso ao hackear redes sem fio de seus vizinhos. O uso dos computadores na EC2 empregados no ataque custa 28 centavos de dólar por minuto, então, descobrir uma senha custaria cerca de 1,68 dólar.

De acordo com Roth, seu intuito é tornar público o software utilizado no processo, e ainda este mês apresentar sua pesquisa na conferência Black Hat, em Washington, Estados Unidos.

É claro, usar o EC2 para tais fins seria contra a política de utilização da Amazon, mas a Reuters citou o porta-voz da empresa, Drew Herdener, dizendo que se a ferramenta de Roth for usada apenas para testes, então ela seria permitida.

De fato, a intenção de Roth é mostrar que a computação sem fio, que depende de um sistema de chave pré-compartilhada (WPA-PSK), é fundamentalmente insegura. O sistema WPA-PSK é usado por usuários domésticos e pequenas empresas, que carecem de recursos para investir em mais segurança.

Como se proteger

Um sistema de chave pré-compartilhada depende que um administrador defina uma senha de até 63 caracteres (ou 64 dígitos hexadecimais). E qualquer pessoa com a senha pode ter acesso.

Tal sistema é reconhecido como seguro, porque o poder de computação necessário para percorrer todas as possibilidades de senhas é enorme. Mas a conclusão de Roth é que este poder já existe hoje, pelo menos para senhas mais fracas.

Sabe-se que até 20 caracteres são suficientes para criar uma senha indecifrável, mas quanto mais caracteres ela tiver, mais forte será. Deve-se notar que, provavelmente, Roth crackeou redes com senhas curtas.

Para aumentar a segurança, usuários deveriam utilizar senhas com uma grande variedade de símbolos, letras e números e alterá-la regularmente – talvez uma vez por mês ou uma vez por semana.

Também, evitar palavras que possam ser encontradas em um dicionário, ou qualquer palavra que seja construída substituindo letras por números, por exemplo, "n1c3"; hackers estão muito à frente de nós neste quesito.

Como o WPA-PSK também é calculado usando o Service Set Identifier (SSID) do roteador sem fio, é bom personalizá-lo e garantir que ele não esteja usando a configuração padrão (geralmente o nome da fabricante). Isso irá protegê-lo contra os chamados ataques "rainbow", que utilizam uma tabela look-up de SSIDs comuns.

Friday 21 January 2011

Campus Party 2011

Presente exclusivo aos usuários do meu Blog

Recebi um link CPBRASIL2011 e acesse todo o conteudo da Campus Party 2011.

Todo o acesso está disponível para Download.

Espero que gostem.

Quem não pode ir até a Campus Party 2011 tem acesso a todas as palestras disponíveis.

Thursday 20 January 2011

As cinco habilidades que os empregadores realmente buscam em seus colaboradores

Cada um de nós é uma colcha de retalhos de características, talentos, ideias e ideais, costurados por nossas experiências pessoais e profissionais. No entanto, alguns desses retalhos merecem um olhar especial dos empregadores, como mostra artigo da americana Vickie Elmer, que escreve sobre carreira e pequenas empresas no Washington Post.

Que aspectos da personalidade chamariam mais a atenção na hora de uma contratação, pergunta Vickie? Integridade seria um deles, pois certamente ajudaria o profissional a realizar um trabalho de gestão, diz pesquisa da Robert Half Management Resources feita, nos EUA, com 1.400 diretores financeiros. Um terço dos entrevistados cita a moral como a característica que mais buscam na preparação de futuros líderes.

Já a American Management Association aponta os "4 Cs" - comunicação, crítica, criatividade e colaboração - como as habilidades mais importantes para os empregadores. Liderança foi outro traço apontado por executivos e gerentes de RH nas entrevistas de emprego realizadas no ano passado nos Estados Unidos.

Em artigo publicado no site Glassdoor.com, Vickie aponta as competências mais visadas pelos gestores:

- Habilidade de comunicação - o profissional precisa saber ouvir atentamente, fazer perguntas relevantes, resumir e transformar ideias e pensamentos em e-mails e notas nítidas, claras e diretas;

- Integridade - Demonstre quem você é, defina seus valores e mostre sua honestidade. Viva de acordo com suas promessas e valores e saiba admitir os erros;

- Adaptabilidade e criatividade - Lado a lado, essas duas habilidades ajudam a superar tempos difíceis e melhorar ainda mais os bons momentos. Mantenha-se engajado, aceite mudanças e enxergue novas ideias em toda parte;

- Consideração e bondade - São traços da personalidade que demonstram seu comprometimento com seus colegas e sua inteligência emocional. Eles podem não aparecer na lista das principais habilidades, mas ajudam a realizar um bom trabalho em equipe. Incentivam a colaboração, a lealdade e a motivação entre os colaboradores;

- Pensamento crítico- Utilize esta habilidade ao ficar diante de novas ideias e demandas. Hoje em dia, os profissionais precisam saber lidar com uma enxurrada de pedidos, problemas, e-mails, prazos e muito mais. Mantenha o foco, estratégia e tome decisões rápidas. Aproveite sua capacidade de tomar decisões e o faça rapidamente, mas analise cuidadosamente suas escolhas.

Fonte : www.oglobo.com.br

Justiça diz que Google não é responsável por conteúdo postado no Orkut

O Google não pode ser responsabilizado pelo material publicado no Orkut, rede social mais usada no Brasil e que pertence à empresa. Por isso, a 3ª Turma do STJ (Superior Tribunal de Justiça) negou pedido de indenização por danos morais a uma mulher.


O Tribunal de Justiça de São Paulo já havia negado o pedido de indenização. Para o órgão, a empresa, por ser apenas um provedor de serviço de hospedagem, não pode controlar o que é postado nas páginas do Orkut. Caso contrário, a verificação do conteúdo das veiculações implicaria restrição da livre manifestação do pensamento.


A ministra Nancy Andrighi diz que a verificação antecipada de todas informações eliminaria um dos maiores atrativos da internet, que é a transmissão de dados em tempo real.


Nancy destacou que os provedores de conteúdo não respondem por informações postadas por outras pessoas e que eles não podem ser obrigados a exercer um controle prévio do conteúdo. Mas isso não os impede de remover o que for considerado impróprio.


A decisão do STJ vai na contramão do que tribunais de primeira instância têm decidido no país – o Google já foi responsabilizado várias vezes por ofensas e conteúdos impróprios postados no Orkut.

Nesta semana, foi divulgado que a Justiça de Minas Gerais condenou o Google a pagar R$ 5.100 a uma mulher vítima de uma comunidade ofensiva na rede social. A página tinha o título "Mais feia que [nome da vítima]? Duvido" e uma foto dela.

Auditoria sobre a segurança da informação: inimiga ou aliada?

O comitê brasileiro sobre as normas de gestão de segurança da informação está trabalhando no desenvolvimento de duas normatizações para a área.

Há boas razões para celebrar os progressos alcançados nos programas de auditoria do Sistema de Gestão da Segurança da Informação (SGSI) sem cair na ilusão de que a estrada já está pronta. O comitê brasileiro sobre as normas de gestão de segurança da informação (série 27000), que colabora com o desenvolvimento de padrões internacionais através da ISO (International Organization for Standardization), está trabalhando no desenvolvimento de duas normatizações que tem como objetivo:

- Prover orientação para o gerenciamento do programa de auditoria do Sistema de Gestão da Segurança da Informação e a condução de auditorias internas e externas de acordo com a ISO/IEC 27001:2005 (Sistemas de gestão de segurança da informação – Requisitos), em adição e complemento àquelas contidas na ISO 19011 (Diretrizes para auditorias de sistema de gestão da qualidade e/ou ambiental);

- Orientar os processos de auditoria dos controles aplicados em um Sistema de Gestão de Segurança da Informação em harmonia com as normas ISO/IEC 27001 e ISO/IEC 27002.

As duas normas estão em fase de desenvolvimento, e o cenário traçado para o futuro do programa de auditoria parece claro.

Investir em treinamentos

Primeiro, convém que as equipes de auditorias reciclem suas competências especificas em segurança da informação. Um planejamento prévio deve criar um plano diferenciado de treinamento para os envolvidos com o processo de auditoria.

A aquisição de conhecimentos inicia-se formalmente através da formação de auditores líderes no Sistema de Gestão da Segurança da Informação (ISO/IEC 27001) e continuará evoluindo, muito em breve, através dos futuros padrões internacionais ISO IEC 27007: Guidelines for ISMS Auditing e a ISO IEC DTR 27008: Guidelines for auditors on ISMS controls. É importante ressaltar que estes dois documentos estão em fase de desenvolvimento no Brasil pelo Comitê Brasileiro sobre as normas de gestão de segurança da informação.

Reestruturar a auditoria

Segundo ponto: esse reposicionamento da auditoria, de acordo com os novos padrões (ISO IEC 27007 e a ISO IEC DTR 27008), exige uma capacidade maior de analisar informações técnicas cada vez mais complexas.

O fato ocorre porque as ameaças e os controles de segurança da informação evoluem constantemente. A segurança da informação e a tecnologia da informação são muito dinâmicas. Os livros, os cursos e as faculdades, não conseguem acompanhar essa evolução.

É por essa razão que a maioria dos profissionais da área de segurança da informação possui um perfil autodidata. Os criminosos que atuam na internet também são autodidatas. São  pessoas assim que desenvolvem novos golpes quase que diariamente.

Os auditores precisam desenvolver cada vez mais sua capacidade de analisar informações complexas em profundidade suficiente para identificar eventuais riscos e oportunidades de melhoria no processo de segurança da informação.

Uso prático de metodologia

Terceiro, as áreas de auditoria deverão atualizar suas metodologias para auditoria do Sistema de Gestão de Segurança da Informação, de acordo com os novos padrões (ISO IEC 27007 e a ISO IEC DTR 27008), incluindo uma série de passos a serem seguidos para garantir a aplicação correta de uma comparação da situação atual da organização com os resultados esperados.

A atualização da metodologia pode contar com o apoio dos departamentos Jurídico e de Compliance, que explicarão como obter informações derivadas de obrigações de conformidade legal e normas pertinentes ao setor de atuação da organização. As equipes de Segurança da Informação e Tecnologia da Informação podem fornecer dados sobre boas práticas adotadas pela organização e como são estabelecidos os controles.

Conclusão

A expectativa é de que as organizações realizem, o mais breve possível, a reestruturação da área de auditoria trazendo uma atualização no conhecimento dos auditores e também no uso de novas metodologias.

Essa evolução será necessária para sinalizar o compromisso dessa área com as metas de segurança da informação e gestão de risco da organização. Mas, para isso, é preciso olhar para um horizonte mais amplo. E buscar orientação de outras áreas de apoio na companhia para avaliar a adequação e efetividade dos controles estabelecidos e implementados, incluindo uma abordagem baseada na Governança da Segurança da Informação e nos riscos operacionais.

(*) Denny Roger é diretor da EPSEC, membro do Comitê Brasileiro sobre as normas de gestão de segurança da informação (série 27000), membro do International Association of Emergency Managers (IAEM), especialista em análise de risco, projetos de redes seguras e perícia forense, e colunista do IDGNow!.

Deus 'quer' wi-fi grátis, onipresente e sem senha, diz ícone do software livre

Uma das figuras mais importantes do movimento que defende o uso de software livre participou da Campus Party 2011 nesta quarta-feira (19) para convencer as pessoas loucas por tecnologia a usarem seu conhecimento para ajudar os outros. Jon Hall, que há anos luta para se livrar do apelido "Maddog" (em inglês, "cachorro louco"), defendeu ainda a distribuição gratuita de internet via wi-fi nos grandes centros urbanos.

“Internet sem fio livre, que não precisa de senha e nem de termos. Foi assim que Deus entendeu que a internet deveria ser”, afirmou o atual diretor-executivo da Linux International. No evento, Hall voltou a falar no Projeto Cauã, apresentado em julho de 2010 na última Feira Internacional do Software Livre (fisl) em Porto Alegre. O projeto tem como objetivo criar computadores simples e baratos, conhecidos com "thin clients", para democratizar o acesso à informação.

“Eu fui vendedor de sistemas de computação para levar os PCs para as pessoas. Mas vocês são muito ‘geek’. Vocês ficam tão focados na tecnologia que se esquecem de algumas coisas, como tomar banho”, brincou Hall.

Durante a palestra, ele explicou como é possível ser um empreendedor e fazer dinheiro usando hardware e software livres. “No Brasil, a internet não está tão longe das pessoas que não tem acesso. Eu quero mostrar como todo mundo pode ter internet”, disse.

Segundo "Maddog", essas pessoas poderiam usar dispositivos de acesso baratos e buscar informação e treinamento para conseguir um novo emprego. “Eu quero criar milhões de empregos, criar computadores mais sustentáveis e fáceis de usar. Nós achamos fáceis porque somos ‘geeks’ e gostamos de sofrer”.

Tuesday 18 January 2011

O que é gerenciamento estratégico de dados

Atualmente, os profissionais da área de tecnologia da informação (TI), dentre os quais me incluo, são bombardeados com notícias a respeito de metodologias e melhores práticas, que denominarei neste artigo simplesmente como ferramentas. Todas certamente são importantes e podem gerar bons resultados se implantadas com critérios bem definidos, alinhamento estratégico e sinergia entre as áreas de tecnologia da informação e, dependendo da ferramenta, entre todas as áreas da organização. As ferramentas em referência são ITIL; COBIT; PMI e CMMI.


A ferramenta ITIL (Information Technology Infrastructure Library) é um conjunto de boas práticas a serem aplicadas na infraestrutura, operação e organização dos processos internos da área de TI. A ferramenta COBIT (Control Objectives for Information and Related Technology), por sua vez, visa garantir que em todas as áreas da organização existam controles adequados.

A ferramenta do PMI (Project Management Institute), por meio do PMBOK (Project Management Book of Knowledge), tem por objetivo garantir que a organização execute projetos de forma adequada.

Finalmente, o CMMI (Capability Maturity Model Integration) tem como proposta analisar as práticas de desenvolvimento de software, estabelecer parâmetros de comparação em termos de maturidade e viabilizar melhoria contínua, tal como existe no PDCA (Plan, Do, Check e Act) existente na ISO 9001 .


Porém, não se pode esquecer que tais ferramentas, para funcionarem bem em qualquer organização, necessitam de um alicerce. Este é a Governança de TI, cujo objetivo é garantir que a área de TI sustente e melhore a estratégia e os objetivos da organização com base em tecnologia, pessoas e processos (conforme preconiza o IT Governance Institute).

Mas a Governança de TI, por sua vez, deve estar associada à Governança Corporativa, que é definida por Nilo Rocha como o “conjunto de processos, costumes, políticas, leis, regulamentos e instruções” que indicam como uma organização é dirigida, administrada ou controlada.

Esse conceito tem sido cada vez mais praticado como forma de atender aos regulamentos da Comissão de Valores Mobiliários (CVM) e do Banco Central, além das leis ou normas que regem o próprio setor de atividade. O principal objetivo da adoção desses princípios está relacionado aos seus pilares: transparência, equidade, prestação de contas e responsabilidade corporativa .


A estrutura a seguir resume esse conjunto de ferramentas e alicerces.


Ferramentas = ITIL (processos internos TI); COBIT (controles adequados); PMI (projetos executados com qualidade); CMMI (software qualificado)


Alicerce 2 = Governança de TI (“garantir que a área de TI sustente e melhore a estratégia e objetivos da organização com base em tecnologia, pessoas e processos”)


Alicerce 1 = Governança corporativa (“conjunto de processos, costumes, políticas, leis e regulamentos e instruções que regulam a maneira como uma organização é dirigida, administrada ou controlada”)


Nestes tempos em que honestidade e integridade deixaram de ser atributos essenciais e passaram a ser atributos extremamente valorizados, a Governança Corporativa adquiriu importância fundamental.

Isto porque qualquer organização, seja qual for sua área de atividade, pública ou privada, deve explicitar aos seus stakeholders (clientes, acionistas, funcionários, fornecedores e demais partes interessadas no seu funcionamento) como é dirigida.

Portanto, a Governança Corporativa não pode limitar-se ao campo das intenções. Deve fazer parte da agenda da alta administração.

Articulação é fundamental


Todos sabem da importância da área de TI para o funcionamento de qualquer organização. Uma área de TI que não possua uma Governança bem articulada com a Governança Corporativa e lastreada por um Plano Diretor de Informática está fadada a ter muitos problemas na sua gestão, com grandes prejuízos operacionais.


Pelo que se viu, a Governança Corporativa e a Governança de TI são imprescindíveis. Quanto ao restante das ferramentas, ficam algumas perguntas: Qual utilizar primeiro? Qual pode apresentar melhores resultados em curto prazo? Qual apresentará melhor custo-benefício?

Qual o investimento necessário?


Os responsáveis pela área de TI de qualquer organização sempre terão que responder a essas questões. Dentre elas, a relacionada ao investimento sempre ocupará posição de destaque na organização, em razão dos custos necessários e do cálculo do retorno sobre o investimento, que envolve um certo grau de subjetividade e dificulta sua apresentação com clareza.

Outro ponto importante é que a solicitação de recursos para a implantação dessas ferramentas nem sempre é expressa em uma “linguagem” compreensível pelos responsáveis pelo negócio e também pela área financeira.

Por exemplo, quando o responsável pela área de TI solicita recursos para a alta administração para a implantação de ITIL, seu discurso é o de que os processos internos de TI precisam ser melhorados. Talvez alguns diretores reajam pensando mais ou menos da seguinte forma: “Novamente vamos colocar dinheiro na caixa preta que é a área de TI? Como mediremos o retorno?”

Questionamentos similares podem ser feitos em relação às demais ferramentas, devido à abordagem técnica geralmente empregada. Trata-se de um problema sério, pois muitas vezes a alta administração não enxerga claramente os resultados que serão obtidos com a implantação das ferramentas propostas pelos técnicos da área de TI.

Qual é uma possível solução para esse problema?


A resposta está no GED

A solução para as dificuldades expostas passa pela implantação do Gerenciamento Estratégico de Dados (GED). Os puristas que nos desculpem, mas GED não significa somente Gerenciamento Eletrônico de Documentos. Na verdade e em nível mais elevado, é a sigla de Gerenciamento Estratégico de Dados, um conceito que a partir de agora deve ocupar a atenção e os interesses de todas as organizações.


A estrutura central do Gerenciamento Estratégico de Dados está baseada na Governança de Dados, cujo objetivo é trabalhar com funções que tratam diretamente com os dados da empresa, ou seja, com a matéria-prima que esta utiliza para a geração das informações que serão exploradas pela inteligência e pela competência dos usuários e que, portanto, serão aplicadas em todos os processos e projetos da organização.


A Governança de Dados atua sobre as seguintes funções:

Gerenciamento de Arquitetura de Dados; Desenvolvimento de Dados; Gerenciamento de Operações com Banco de Dados; Gerenciamento da Segurança dos Dados; Gerenciamento de Dados Mestre & Referência; Gerenciamento de Data Warehouse & Business Intelligence; Gerenciamento de Documentação e Conteúdo; Gerenciamento de Metadados; e Gerenciamento de Qualidade de Dados.


Desse modo, a estrutura conceitual apresentada anteriormente sofre algumas alterações e passa a ter a seguinte composição:


Ferramentas = ITIL (processos internos TI); COBIT (controles adequados); PMI (projetos executados com qualidade); CMMI (software qualificado)


Alicerce 3 = Governança de TI (“garantir que a área de TI sustente e melhore a estratégia e objetivos da organização com base em tecnologia, pessoas e processos”)


Alicerce 2 = Governança de dados (“A partir de políticas e padrões estabelecidos fazer com que a organização execute projetos e serviços voltados para a valorização dos ativos de dados”)


Alicerce 1 = Governança corporativa (“conjunto de processos, costumes, políticas, leis e regulamentos e instruções que regulam a maneira como uma organização é dirigida, administrada ou controlada”)


Percebe-se que um novo alicerce foi colocado entre a Governança Corporativa e a Governança de TI. Qual é a vantagem desse novo alicerce? Seu foco são os dados da empresa. Assim, o discurso dirigido à alta administração muda diametralmente e passa a focalizar situações e elementos familiares para os homens de negócios.

Por exemplo, em vez de dizer à alta administração que o objetivo é organizar os processos internos de TI, se dirá que serão disponibilizadas informações de vendas com maior agilidade, na medida e nos prazos necessários e sem erros. Pode-se dizer também que o cockpit de indicadores do BSC (Balance Scored Card) passa a ser prioridade para a área de TI, visando tornar a ação utilizável, obtida em tempo hábil e com visualização adequada.


O Gerenciamento Estratégico de Dados vai muito além da garantia de cadastros isentos de erros. Preocupa-se e ocupa-se com a arquitetura de dados, indagando se a arquitetura disponibilizada atende as necessidades das áreas de negócio. Preocupa-se também em verificar se os dados estão sendo desenvolvidos de modo a atender as estratégias da organização: há necessidade de novos dados ou, talvez, é necessário que alguns dados deixem de ser gerados?

Outro ponto crítico para o GED é saber se as operações com bancos de dados estão ocorrendo de forma adequada e segura. Não menos crítica é a segurança dos dados: estão sob custódia das pessoas certas? Os sistemas são seguros? A documentação e o conteúdo também são elementos críticos no GED: o conteúdo enviado aos mais diversos usuários está atualizado?

Existe documentação sobre os dados gerados e utilizados? E, quando o assunto é documentação, o gerenciamento de metadados ganha importância significativa, pois estes são elementos-chave para a documentação dos dados. São, como alguns classificam, os dados sobre os dados ou os dados dos dados.

Business Intelligence e Data Warehouse também são tratados com prioridade dentro do GED, pois têm a missão de fornecer subsídios para que os homens de negócios tenham a visão correta da situação em cada momento e adotem as ações necessárias para garantir a rentabilidade da organização.

Por último, mas não menos importante, está a qualidade de dados: os dados entregues aos usuários finais estão isentos de erros? Estão completos?


As respostas a todas essas perguntas e necessidades não podem estar somente com a área de TI da organização. Com a Governança de Dados atuando como base do Gerenciamento Estratégico de Dados, todos passam a ter papel fundamental para que a organização seja bem sucedida com seus dados.

Capacitação profissional


O estabelecimento da Governança de Dados entre a Governança Corporativa e a Governança de TI é estratégica, atuando como elemento forte a sustentar a Governança de TI, com papel chave na simplificação do trabalho da Governança Corporativa. Porém, para que a Governança de Dados seja implantada e mantida com sucesso, é necessário que pessoas da organização sejam capacitadas como gerentes estratégicos de dados, ou, de forma mais apropriada, como líderes estratégicos de dados.

Um gerente estratégico de dados, que nos Estados Unidos é conhecido como Data Steward, tem como funções: representar os interesses dos produtores e consumidores de dados; representar os interesses de dados da organização; ter responsabilidade pela qualidade e pelo uso dos dados; guardar, investir e nivelar os recursos sob sua responsabilidade; certificar-se de que os recursos de dados estão de acordo com as necessidades do negócio, garantindo a qualidade dos dados e de seus metadados; e trabalhar em parceria com os profissionais de gerenciamento de dados da área de TI (neste caso, servindo como elemento condutor das necessidades de dados da área de negócios junto a TI).

Esse profissional deve ser acreditado como “curador” dos dados.
O que diferencia um gerente de um líder são os seguidores. Portanto, um gerente tem que trabalhar para ser um líder, atraindo e formando seguidores para a sua nobre causa. Formar um líder não é tarefa fácil, pois alguns já trazem as qualidades necessárias para isso do berço.

Porém, formar um gerente estratégico de dados é possível por meio dos treinamentos e do programa de certificação oferecidos pela DAMA (Data Management Association), entidade sem fins lucrativos criada nos Estados Unidos em 1968 por profissionais da área de tecnologia da informação e hoje presente em mais de 30 países, entre os quais o Brasil, onde o capítulo local, com jurisdição sobre toda a América do Sul, foi estabelecido em junho último.


Uma dúvida crucial pode se estabelecer na mente de algumas pessoas: por que atribuir tamanha importância à Governança de Dados? A resposta é simples. Depois do sangue que corre em nossas veias e do ar que respiramos, os dados são os elementos com os quais temos contato permanente e dos quais temos forte dependência.

Os dados estão armazenados em toda parte: em nossas mentes (e de forma não estruturada, segundo os cientistas), nos computadores pessoais e residenciais, nos servidores das empresas e nos computadores de grande porte, nos carros e celulares, nos CDs e DVDs, na TV digital, nos livros, no material escolar, nas roupas, nas embalagens, nos símbolos que vemos e interpretamos dentro de um processo semiótico – isso para citar apenas alguns dos múltiplos “veículos” de dados com os quais lidamos a cada dia. Em síntese, pode-se afirmar que toda a nossa existência depende direta ou indiretamente de dados.


A conclusão obrigatória é a de que focar o gerenciamento em dados de modo estratégico a cada dia deixa de ser uma possibilidade para ser uma necessidade.


Fonte: 1- Computerworld


2 - ROCHA, Nilo. Afinal, quem é responsável pela governança de TI - TI INSIDE Online – OUTSOURCING - 30 de agosto de 2010


Rossano Soares Tavares é presidente do capítulo brasileiro da DAMA (Data Management Association); professor de gerenciamento de projetos no Centro de Estudos Unianchieta; membro, voluntário e instrutor no PMI (Project Management Institute) e doutorando pela UMT/Virginia (University of Management and Technology)

Segurança da informação: Mobilidade e o novo paradigma da proteção de dados

Antigamente para estar disponível um executivo precisava apenas de um celular para receber chamadas. Com o avanço da tecnologia móvel, a disponibilidade vai muito além de atender ligações: envolve o acesso à Internet, aos sistemas corporativos, à informações e comunicação em tempo real.


Além dos Laptops, dispositivos como smartphones, tablets iPhones, Pen-drives e Modems USB permitem que os usuários corporativos carreguem seus dados e se comuniquem em qualquer lugar e a qualquer hora, contribuindo para o aumento da produtividade e eficiência dos processos empresariais.


Assim como os benefícios trazidos pelas novas tecnologias, os riscos associados ao armazenamento portátil de dados e dispositivos móveis podem ser significativos ainda mais por que dispositivos como estes, por questões de comodidade e funcionalidade são frequentemente utilizados para interesses pessoais.


Imagine um dispositivo contendo dados confidenciais que compartilha arquivos com o PC doméstico, acessa redes sociais como linked-in, facebook e twitter e que é utilizado para exibir fotos em uma TV de última geração que por sua vez também está conectada à internet.


Além disso, para exibir informações em tempo real, muitas vezes os aplicativos instalados nos dispositivos móveis possuem mecanismos de sincronização e logon automático em sistemas corporativos. Isto aumenta mais ainda o interesse dos hackers pela utilização destes dispositivos como porta de entrada para as redes corporativas. Com a proliferação dos dispositivos móveis, a tradicional idéia de segurança de perímetro tende a desaparecer.

Os dispositivos de firewall deixam de ser a última fronteira entre um ambiente seguro e um ambiente hostil.


A transmissão e circulação de informações entre dispositivos móveis, a web a as redes sociais, está exigindo que cada dia mais, os CIOs coloquem a segurança da informação na ponta dos orçamentos. E a complexidade do cenário não termina aí.
As vulnerabilidades, como sempre, não estão apenas nas tecnologias mas também na conduta das pessoas envolvidas nos processos.

O fator humano continua sendo um desafio para a segurança e a criação de políticas de uso aceitável de recursos tem um papel importante ao se abordar a questão. Os dispositivos móveis e a convergência de funcionalidades oferecidas pelos fabricantes, favorecem seu uso compartilhando para fins pessoais e corporativos tornando-se mais um item a ser endereçado.


A tendência natural do ser humano é procurar alternativas de acesso ao se deparar com algum tipo de restrição, desta forma invariavelmente encontraremos funcionários tentando burlar (ou burlando) a política de segurança, mas é fato, que ela deve existir e o colaborador deve ser avisado sobre o assunto. Tê-lo ao lado da empresa é a melhor forma de se proteger.


Uma vez que a companhia tem dados importantes circulando nesses dispositivos, sua perda também passa a ser uma grande dor de cabeça, pois o apelo da portabilidade e mobilidade faz com que sejam cada vez menores e fáceis de serem perdidos.

Já não são raros os casos de perdas de notebooks, e smartphones em taxis, saguões de aeroportos entre outros locais de grande circulação. Uma empresa até pode ter o controle do que o colaborador acessa, mas não pode impedir a perda de um aparelho, logo precisa buscar alternativas tecnológicas para isto, ou os danos podem ser irreparáveis.


O avanço da tecnologia móvel é contínuo, impossível de se analisar o quanto ainda há de espaço para crescer. Somente no mês de dezembro de 2010, uma única operadora arrematou 11 dos 18 lotes do leilão da ANATEL para a Banda H de freqüência de 3G no Brasil. Com isso, foram inclusos a cobertura ainda mais freqüente para a capital de São Paulo, além de cidades do interior do Estado paulista, e municípios do Amazonas, do Amapá, do Pará, do Maranhão e de Roraima.

É a tecnologia chegando aonde a gente nunca imaginava. O crescimento é dado a um passo largo, e a segurança deve acompanhar.


Em um cenário cada vez mais competitivo, onde gigantes do desenvolvimento de software brigam pela hegemonia no mercado de dispositivos móveis lançando novas funcionalidades e “facilidades”, não é difícil imaginar as infinitas possibilidades para o acesso à informação e conectividade a serem disponibilizadas.


Em 2011, esperamos que as empresas desenvolvedoras de soluções aprimorem ainda mais suas tecnologias para que a segurança vá além dos limites da rede corporativa, que hoje ainda podemos chamar de “rede interna”.

O paradigma da proteção baseada em perímetro já não satisfaz as necessidades atuais de negócio de forma eficiente. As tecnologias de segurança devem cada vez mais se voltar para a autenticação de usuários e dispositivos conectados à rede, ao monitoramento e à mecanismos de proteção da informação em si, não importando onde ela esteja.


Júlio Graziano Pontes é diretor de soluções da True Access Consulting

Monday 17 January 2011

Ataques cibernéticos serão padrão nas guerras do futuro

LONDRES - Ataques a sistemas computacionais já têm o potencial de causar catástrofes globais, mas apenas combinados com outro desastre, alertou nesta segunda-feira a Organização Para Cooperação e Desenvolvimento Econômico (OECD, na sigla em inglês). O relatório é parte de um projeto mais amplo que analisa "futuros choques globais" como falhas no sistema financeiro internacional ou pandemias de larga escala.

Para a OECD, existem poucos "ciber eventos" que podem causar um choque global. Entre os exemplos está um ataque aos protocolos nos quais a internet se baseia ou uma grande explosão solar que tire do ar satélites de comunicação. No entanto uma combinação de eventos como ciberataques coordenados ou incidentes que ocorram durante outro desastre podem ter efeitos graves.

"Nesse caso, as condições para uma "tempestade perfeita" podem existir", diz o relatório, escrito pelo professor Peter Sommer, da London School of Economics e pelo professor Ian Brown, da Universidade de Oxford.

Governos estão enfatizando cada vez mais a importância da cibersegurança. Os EUA estão se preparando para um ciberconflito e já criaram seu comando militar para essa eventualidade. Em outubro, a Grã-Bretanha colocou os ciberataques como uma das principais ameaças externas, reservando 650 milhões de libras para cuidar do assunto.

Enquanto isso, muitos analistas acreditam que nações emergentes como China e Rússia veem nesse setor uma arena na qual podem desafiar o domínio militar norte-americano.

O vírus Stuxnet é visto como um sinal da crescente militarização do ciberespaço. Ele atinge apenas instalações industriais e teria sido criado para sabotar o program nuclear iraniano. O New York Times noticiou no sábado que o vírus foi criado por uma força conjunta dos EUA e Israel e testado na usina nuclear Dimona, em Israel .

O estudo da OECD conclui que os ciberataques serão padrão nas guerras futuras e que as armas cibernéticas serão "cada vez mais usadas com efeitos cada vez maiores por ativistas como forma de persuasão".

Mas a OECD conclui que uma verdadeira "ciberguerra", travada totalmente em sistemas de computador, é pouco provável, pois a maioria dos sistemas críticos é bem protegida e os efeitos dos ataques seriam difíceis de se prever, podendo inclusive se voltar contra os agressores.

Brown afirma que adotar uma abordagem militar à cibersegurança é um erro, pois muitos dos alvos na infraestrutura crítica dos países - comunicação, energia, finanças e transportes, por exemplo - estão no setor privado.

Fonte: www.oglobo.com.br

Veja como proteger seu smartphone de programas mal intencionados

Antes de baixar um aplicativo para um celular inteligente, verifique se a empresa que o criou tem credibilidade no mercado. Depois,confira se o aplicativo é certificado pelo fabricante. 
Para evitar baixar programas duvidosos, faça o download só em lojas online autorizadas, como a App Store (da Apple) ou o Android Marketplace (do Google). Fora delas, o risco é por sua conta.


1. Bluetooth – não o deixe sempre ativo ou então deixe-o invisível para que não seja facilmente percebido por gente mal-intencionada;


2. Redes Wi-Fi – evite lugares onde o acesso é gratuito se não tiver alguma referência sobre o lugar. Evite acessar aplicativos de bancos ou que trafeguem dados pessoais ou confidenciais;


3. Geolocalização – preste atenção a serviços que indicam sua localização geográfica (GPS). Use o bom senso em aplicativos que indicam onde você está, como o Facebook Places ou o Foursquare. Não divulgue seus hábitos diários, como “saí de casa”, “cheguei no escritório” ou “fui ao restaurante x”;

4. URLs encurtadas – cuidado com os links encurtados que seus contatos do Twitter mandam para você. Alguns deles podem trazer links falsos para sites maliciosos. Segundo as empresas de segurança, a cada minuto, 3.000 delas infectam computadores de todo o mundo;


5. Cuide de seu PC – mantenha um bom antivírus atualizado em seu computador. O computador é o maior prejudicado por ataques a smartphone. Para saber quais são os melhores entre no AV-Comparatives, um site (em inglês) independente que compara os principais antivirais do mercado;


6. Windows – Faça todas as atualizações recomendadas pelo sistema operacional da Microsoft;


7. Desconfie – como já dizia Andy Grove, um dos primeiros empregados da Intel, só os paranoicos sobrevivem.

Por isso, desconfie sempre das pessoas que lhe mandam arquivos, quer você as conheça ou não.

Saiba como ajudar as vítimas das enchentes da região serrana do Rio de Janeiro

Rio de Janeiro

- Cremerj (Conselho Regional de Medicina do Estado do Rio de Janeiro), na sede do Conselho, que fica na Praia de Botafogo, 228, loja 119-B, Botafogo, zona sul. As doações devem ser entregues de 9h às 18h.

- Unidades do Sesc Rio e do Senac Rio. Sede da Fecomércio-RJ, que fica na Rua Marquês de Abrantes, 99, no Flamengo, zona sul.

- Alerj (Assembleia Legislativa do Rio de Janeiro) na Palácio Tiradentes, no Saguão Getúlio Vargas.

- Secretaria de Governo do Rio, na rua Pinheiro Machado, s/n, em Laranjeiras, na zona sul.

- Metrô Rio, em parceria com a ONG Viva Rio, recolhe doações em 11 estações das linhas 1 e 2: Carioca, Central, Largo do Machado, Catete, Glória, Ipanema/General Osório, Pavuna, Saens Peña, Botafogo, Nova América/Del Castilho e Siqueira Campos. Poderão ser doados até o dia 11 de fevereiro água, alimentos não perecíveis e material de higiene pessoal.

- Cruz Vermelha, na praça da Cruz Vermelha 10, centro.

-  Rodoviária Novo Rio, na avenida Francisco Bicalho, 1, Santo Cristo. A rodoviária recebe doações para a Cruz Vermelha, que podem ser feitas no embarque inferior, das 9h às 17h.

- Center Shopping Rio, na avenida Geremário Dantas, 404 , em Jacarepaguá, na zona oeste. As doações devem ser entregues no SAC(Serviço de Atendimento ao Cliente), no 3º piso.

- Fashion Mall, na estrada da Gávea, 899, em São Conrado, na zona sul.

- Ilha Plaza, na av. Maestro Paulo e Silva, 400, na Ilha do Governador, na zona norte. Os mantimentos devem ser entregues no Espaço Família – localizado no 3º piso do shopping.

- Norte Shopping, na av. Dom Hélder Câmara, 5474, no Cachambi, na zona norte.

- Rio Plaza Shopping, na rua General Severiano, 97, em Botafogo, na zona sul.

- Recreio Shopping, na avenida das Américas, 19.019, no Recreio dos Bandeirantes, zona oeste.

- Shopping Tijuca, na avenida Maracanã, 987, na Tijuca, zona norte.

- West Shopping, na estrada do Mendanha, 555, no SAC (Serviço de Atendimento ao Cliente), no 1º piso, em Campo Grande, na zona oeste.

- Shopping Leblon, na avenida Afrânio de Melo Franco, 290, no Leblon, na zona sul. Tem um setor de coleta de doações no SAC (Serviço de Atendimento ao Cliente), no primeiro piso.

- Bangu Shopping, na rua Fonseca, 240, em Bangu, na zona oeste.

- Passeio Shopping, rua Viúva Dantas, 100, em Campo Grande, na zona oeste.

- Santa Cruz Shopping, rua Felipe Cardoso, 540, Santa Cruz, na zona oeste.

- Shopping Grande Rio, na rodovia Presidente Dutra, 4.200, em São João de Meriti, na Baixada Fluminense.

- Center Shopping Rio, na avenida Genemário Dantas, 404, em Jacarepaguá, na zona oeste.

- Carioca Shopping, na avenida Vicente de Carvalho, 909, na Vila da Penha, na zona norte.

- Caxias Shopping, na rodovia Washington Luiz, 2895, em Duque de Caxias, na Baixada Fluminense.

- Via Parque Shopping, na avenida Ayrton Senna, 3.000, Barra da Tijuca

- CasaShopping , na avenida Ayrton Senna, 2150, Barra da Tijuca.

- Rio Design Barra, na avenida das Américas, 7.777,  Barra da Tijuca.

- Shopping Downtown, na avenida das Américas, 500, Barra da Tijuca.

- Rio Design Leblon, na avenida Ataulfo de Paiva, 270, Leblon.

- Botafogo Praia Shopping, na Praia de Botafogo, 400.

- RioSul Shopping, na rua Lauro Müller, 116, Botafogo.

- Madureira Shopping, na Estrada do Portela, 222, Madureira.

- Jornal do Brasil - Av. Paulo de Frontin, 568 - Rio Comprido. Tel.: Tel: 3923-4000. O Jornal do Brasil está aceitando todos os tipos de doações.

- Vianense Supermercados disponibilizou todas as filiais para receber doações.

- Praia para todos, no Posto 3. Estão recolhendo água mineral, alimentos não perecíveis e de fácil uso como sopa instantânea, material básico de higiene.

- Secretaria Estadual de Assistência Social recebe doações na sede da FIA (Fundação da Infância e Adolescência) em Botafogo e Niterói. Em Botafogo, na zona sul do Rio, o endereço da FIA é rua Voluntários da Pátria, 120. Em Niterói, a FIA fica na rua General Castrioto, 589, Barreto.

- Sede do Comitê Organizador Rio 2016  e do Comitê Olímpico Brasileiro, na Avenida das Américas, 899, Barra da Tijuca.

- Viva Rio. O Programa de Voluntariado do Viva Rio iniciou a campanha S.O.S Região Serrana. Quem quiser pode enviar donativos para rua do Russel, 76, na Glória, ou depositar na conta corrente do Banco do Brasil 411396-9, agência: 1769-8; o CNPJ é 00343941/0001-28.- Agências do banco Itaú / Unibanco estão com pontos de arrecadação.

A instituição também disponibilizou uma conta para doações, que serão encaminhadas ao governo do Estado do Rio, que vai distribuir para os municípios atingidos. A conta está em nome do Fundo Estadual de Assistência Social do Estado do Rio de Janeiro, agência 5673, conta: 00594-7. O CNPJ é 02932524/0001-46. - Hemorio, na rua Frei Caneca, 8, centro, das 7h às 18h. O Hemorio pede que as pessoas doem sangue para as vítimas das chuvas.

Os estoques estão quase zerados. Pode doar sangue quem tiver entre 18 e 65 anos, mais de 50 quilos e estiver bem de saúde. Basta levar um documento oficial de identidade com foto. Informações e agendamento pelo disque sangue 0800-282-0708.- Lojas Americanas.

- Inea (Instituto Estadual do Ambiente), na avenida Venezuela, 110, Praça Mauá, centro.

- Os restaurantes Via China e Chap´s estão recebendo doações nas lojas que funcionam nos seguintes endereços: 
Em Botafogo, na zona Sul, a loja do Via China fica na rua Conde de Irajá, Nº 288. Na Tijuca, zona norte o endereço do Via China rua Dona Delfina, Nº 17. O restaurante Chap´s funciona na avenida Armando Lombardi, nº 633, Barra da Tijuca, na zona oeste.

- O jogador Petkovic disponibilizou a sua pizzaria para as pessoas entregarem donativos. O restaurante fica na Barra da Tijuca, na zona oeste e o endereço é: Avenida Poty Medeiros 60, loja 106 - Centro Comercial do condomínio Mandala.

-  Todos os campus da Unisuan estão disponíveis para doação. Ao todo são 12 endereços em diversas localidades. Mais informações no Tel. 0800.2820-007.

- Pontos com o ônibus de coleta de doações identificado com uma faixa “Parada Solidária – Faça aqui sua doação / Desabrigados pelas chuvas”.

- Largo da Carioca, Centro.

- Cinelândia (a partir de 2ª feira, dia 17, em frente à Câmara dos Vereadores).

- Terminal Alvorada, Barra da Tijuca (na Administração).

- Ilha do Governador – sede da Sub-Prefeitura em frente ao posto RioCard.

- Praça General Osório, Ipanema (a partir de sábado, dia 15).

- Jardim Zoológico do Rio. Um posto de arrecadação de doações foi disponibilizado na central de relacionamento do parque. Os itens mais necessários neste momento são: água potável, alimentos não perecíveis, roupas, cobertores, colchonetes e itens de higiene pessoal. O Zoo do Rio fica no Parque da Quinta da Boa Vista, sem número, em São Cristovão. Mais informações com Rosângela ou Tânia, nos telefones 3878 4254, 3878 4261 ou 8909 1309.
- Centro de Tradições Nordestinas, a Feira de São Cristovão. As doações de roupas, água e alimentos não perecíveis podem ser feitas de terça a domingo, na praça dos Repentistas.
- Peixe Urbano, o site de compras coletivas pela internet. Os cadastrados no site podem fazer doações de cotas de R$10,00, até o dia 21 de janeiro de 2011. O valor arrecadado vai ser passado Movimento Rio Eu Amo Eu Cuido, que vai encaminhar a doação.

Outros locais:

Rodovia BR-040, nas praças de pedágio situadas em Duque de Caxias (km 104), Areal (km 45) e Simão Pereira (km 816), além da sede da empresa (km 110/JF, em Caxias). Nas praças de pedágio, as doações podem ser entregues nos postos do serviço de informação ao usuário da rodovia.

Em São João de Meriti, na Baixada Fluminense, as doações podem ser entregues de segunda a sexta-feira das 9h às 17h, nos seguintes locais:
Secretaria Municipal de Promoção Social, na avenida Presidente Lincoln, 899- térreo, em Vilar dos Teles
Centro de Assistência Social de Éden, na rua Ana Brito da Silva, 2470, em Éden
Centro de Assistência Social de Jardim Íris, na rua Copacabana, 50, em Jardim Íris
Centro de Assistência Social de Vila São José, na avenida Comendador Teles, 3199, na Vila São José
Centro de Referência Especializada da Assistência Social de Vilar dos Teles, na rua Aldenor Ribeiro, 125, sala 02-Shopping dos Jeans
CET-Meriti, na avenida Automóvel Clube, 1785-Parque Jardim Bonifácio
Meriti-Previ, na rua Defensor Público Zilmar Pinaud, 220, em Jardim Meriti

Em Niterói
Terminal João Goulart (em frente ao posto do Setrerj).

Nota : Divulguem a nota acima, pois qualquer ajuda que seja mínima possível já é alguma ajuda.

Friday 14 January 2011

PNBL: provedores dizem que há entraves à oferta de internet a R$ 35

Para viabilizar as metas do Plano Nacional de Banda Larga, especialmente o preço de acesso à internet por R$ 35, o Ministério das Comunicações sinalizou a pequenos e médios provedores que vai se debruçar sobre os diferentes componentes de custos, como o valor dos links no atacado, financiamentos, tributos e taxas.

Associações de provedores de acesso – Anid, Abranet, Internetsul, Global Info e Abrint – estiveram nesta terça-feira, 11/01, na primeira das reuniões que o ministro Paulo Bernardo pretende realizar com diferentes atores do setor e listaram as principais questões que influenciam o preço ao consumidor final. Segundo o que foi apresentado, o preço médio atual, para conexões de 512 kbps, é de R$ 60.

“Apresentamos questões que impactam diretamente no preço que o governo quer para o usuário final. Entendemos que há uma discussão aberta, inclusive sobre o preço-meta, mas que passa pela questão da escala, do poder de compra [a quantidade de MB adquiridos no atacado] e do nível de adesão. No caso do preço do link, em alguns casos R$ 230 não é um valor competitivo”, diz o presidente da Anid, Percival Henriques.

O governo, no entanto, sustenta que a meta de acesso a R$ 35 não está em discussão, ainda que reconheça a necessidade de estudar melhor os custos envolvidos. “Pedi que eles tragam uma planilha com todos os custos e os problemas. Queremos saber o preço que eles vão praticar no mercado”, afirmou Paulo Bernardo. “A tendência é custar ainda menos que R$ 35”, completou.

O governo já negocia com a possibilidade de o Fundo Garantidor de Investimentos ser estendido ao Cartão BNDES, como forma de viabilizar o acesso ao crédito do banco de fomento pelos pequenos provedores – cuja principal dificuldade é justamente a apresentação de garantias.

O ministro também deve aproveitar uma reunião prevista para esta quarta-feira, 12/1, com a diretoria da Telebrás para discutir uma eventual redução no valor estimado do link no atacado. Durante a elaboração do PNBL e a reestruturação da estatal, o alvo era conexão a R$ 230 o megabyte.

Acontece que embora esse valor possa chegar a R$ 7 mil no mercado privado, também há ofertas inferiores. “Há ofertas do MB por R$ 190 ou menos. Mas a Telebrás virá para a mesa, amanhã mesmo tenho uma reunião com a diretoria, e vamos colocar essa questão para ver se tem condições de melhorar”, disse Bernardo.

Outras questões dependem de terceiros. O Minicom quer convencer governadores a isentarem a banda larga de ICMS, no que podem se valer do já existente Convênio Confaz sobre o assunto. Segundo o secretário de Telecomunicações do Minicom, Nelson Fujimoto, o objetivo é trabalhar em um plano conjunto com os estados.

Além disso, os provedores também reclamam de custos para uso de infraestrutura do setor elétrico. É o caso das taxas de passagem pelo uso de postes. Segundo o que apresentaram na reunião com o ministro, os valores para a utilização de cada um dos postes, de R$ 2 a R$ 9, em alguns casos até R$ 14.

Fonte: Convergência Digital
Data: 12 de janeiro de 2011

Thursday 13 January 2011

Como ganhar seguirores no Twitter – 13 dicas

Você está querendo ganhar seguidores no twitter ou ser comentado nesse microblog que é bastante usado e comentado por todos? Abaixo listo 13 dicas que poderão te ajudar:

1 – Use as Hasttags (#) Corretas

Insira sempre as hashtags (#) correspondentes ao assunto do seu tweet para atrair pessoas que estão ligadas ao seu tweet. Elas dão a dica do que sua mensagem aborda

2 – Palavras chave na Bio

Coloque as palavras-chave do assunto que quer falar na sua Bio, que é o local onde você descreve um pouco sobre você (vem de Biography), pois quando alguém fizer pesquisas em diretórios e no próprio twitter (em Who to follow ou find people) acharão o seu perfil com mais facilidade e saberão qual é o seu interesse, e sobre o tema que você gosta.

3 – Qualidade no Conteúdo

Publique conteúdo de qualidade e foque no tema que você quer ter seguidores, e não se esqueça de dar intervalo entre um tweet e outro, esse tempo variará de acordo com o que você tem a falar ao seu público.

4 – Crie eventos, Promoções…


Crie promoções, concursos, desafios ou sorteio com prêmios relacionados a sua empresa ou em parceria com empresas que estão ligadas ao seu perfil. Dependendo do tipo de ação que fizer, não dará terá tempo de divulgar em outras mídias, por isso foque na ação nessa Rede Social, pois o resultado pode ser muito mais rápido que você imagina. Segue abaixo um exemplo que vi acontecer:

Uma empresa que conheço lançou um novo site e para divulgá-lo usou as redes sociais e o e-mail marketing. A campanha era: Quem encontrasse certa imagem no meio do site iria ganhar o produto X da empresa. A campanha iniciou com a divulgação nas redes sociais e pelo e-mail marketing. Resultado: Após o primeiro comunicado no Twitter as pessoas não paravam de twitar sobre a promoção Conclusão: Antes de ser enviado metade das listas da mailing da empresa as pessoas já tinham achado a imagem e a promoção tinha acabado.

A interação das pessoas pelo twitter é muito rápida quando a ideia é legal, não dando tempo, dependendo do tipo de ação, de ser em conjunto com outros meios.

Para ver como fazer promoções pelo Twitter veja o artigo 2 maneiras de fazer sorteio pelo Twitter!

5 – Compartilhe informações alheias


Não queira que, só as pessoas Retwittem a sua mensagem dê RT em artigos, noticias e comentários interessantes dos outros também.

6 – Interaja

Procure o máximo de interação com seus seguidores.

7 – Seja participativo

Participe de discussões relacionadas ao assunto que você conhece. Só tome cuidado para não entrar em conversa onde não foi chamado ou com pessoas que você nunca interagiu antes.

8 – Instigue conversas

Instigue conversas sobre assuntos interessantes e relacionadas ao seu negócio. Quando se inicia uma conversa a respeito de um assunto, as pessoas dão mais atenção a esses twetts. Mas atenção sempre assuntos que você ou sua empresa conheça. Para ver sobre os temas de seu interesse existem vários sites que poderão te ajudar, por meio de palavras-chave. Para saber melhor sobre esses sites leia o artigo 11 Ferramentas para Ajudar seus Negócios no Twitter

9 – Direcione o bate papo


Quando você ver que o assunto irá se estender, direcione a conversa para um meio particular, e-mail, telefone ou chat da sua empresa ou o seu particular. Lembre-se: Twitter não é sala de bate papo.

10 – Seja Criativo

Publique tweetts criativos e atraentes para que você consiga RT e menções de outros seguidores, o que te dará uma maior visibilidade.

11 – Use o encurtador de URL

Quando for twittar uma noticia ou artigo encurte o link da url de destino da matéria, afinal só pode ser postado mensagens de até 140 caracteres. Exemplos de encurtadores são: migre.me, bit.ly

12 – Divulgue seu perfil aos amigos

Divulgue seu perfil em outras redes sociais, e-mail, blogs…

13 – Use o botão curtir do Twitter


Se tiver sites ou blog coloque o botão “curtir” do Twitter para a pessoa Twittar a sua página (artigo, produto, site..) ao final ou inicio de cada matéria (informação)

Escrito por Ricardo Euclydes Nazar Autor do blog do Venderon.blogspot.com

Wednesday 12 January 2011

Governo diz que só vai baixar imposto da banda larga se operadoras reduzirem os preços

O ministro das Comunicações, Paulo Bernardo, afirmou nesta quinta-feira (12) que a desoneração de impostos para o acesso à internet banda larga só será feita se as operadoras garantirem redução nos preços do serviço. Ele disse que já conversou com o coordenador do Confaz (Conselho Nacional de Política Fazendária), Carlos Santana, para que uma possível redução do ICMS (Imposto Sobre Circulação de Mercadorias e Serviços) só seja feita se houver garantia de benefícios aos consumidores.


– Se tirar o ICMS e as empresas não baixarem o preço, o consumidor não ganha nada, não adianta fazer desse jeito. Vamos fazer em conjunto, se tiver que tirar imposto federal, estadual, conseguir crédito, melhores condições para as empresas, nós vamos ajudar. Mas queremos que os consumidores sejam beneficiados por isso.
Paulo Bernardo afirmou também que vai conversar com todas as operadoras de telefonia interessadas em participar do Plano Nacional de Banda Larga (PNBL). A finalidade do projeto é permitir o acesso à internet em alta velocidade a baixo custo para a população.

– Temos uma série de coisas, novos serviços que podem ser negociados com as operadoras para que fique mais atraente para elas fazer a oferta desses serviços.

Ele já se reuniu nesta terça-feira (11) com representantes de associações de provedores de internet e tem marcado para hoje à tarde um encontro com o presidente da Oi, Luiz Eduardo Falco.
Segundo o ministro, o governo também poderá, no futuro, estudar medidas para facilitar o acesso da população a aparelhos como smartphones (telefones celulares com funções avançadas, como acesso à internet) e tablets (computadores em forma de prancheta).

– As pessoas querem estar atualizadas, principalmente a juventude, que quer ter acesso às novas tecnologias. A tendência é que esses tablets virem uma febre também no Brasil. E quanto mais barato, melhor. Significa desenvolvimento da nossa indústria, emprego, gente fazendo software pra esses equipamentos.


Ao mesmo tempo, o ministro considera fundamental continuar investindo na capacitação da população para lidar com essas novas tecnologias.

– Se formos esperar todos ficarem craques em navegar na internet sem ter condição de navegar, não vai acontecer nunca.

Ele disse que vai cobrar da Anatel (Agência Nacional de Telecomunicações) mais rapidez na solução de problemas de consumidores com operadoras de telefonia.

– Estamos conversando com Anatel, com certeza vai melhorar o serviço de fiscalização, cobrança e exigência. Evidentemente, isso não vai ser resolvido da noite para o dia, mas temos condições de forçar para que a solução venha mais rápido.

Nota do autor do blog : o que estamos vendo da parte do Governo e a mesma e velha historinha de sempre. De um lado o Governo culpa as Operadoras, e de outro lado, as Operadoras, que sabemos mais do que ninguem culpa o Governo pelas altas taxas de impostos.

Esta batalha esta longe de terminar.

Tuesday 11 January 2011

Como lidar com tanta informação?

É crescente a quantidade, multiplicidade, diversidade e complexidade dos dados diariamente introduzidos, processados, armazenados ou eliminados nos sistemas de TI de organizações públicas ou privadas, com ou sem fins lucrativos, bem como nos diferentes tipos de computadores pessoais. São fichas cadastrais, informações contábeis, relatórios comerciais, textos jornalísticos, e-mails, contratos, gráficos, tabelas, animações, fotos, radiografias, filmes, resultados de exames ou simples listas de nomes, endereços e telefones, entre muitos outros.

Alguns podem ser consultados livremente, como os disponíveis por meio de sites de busca. Outros têm acesso limitado a grupos ou usuários selecionados mediante senhas e chaves de criptografia, como os relativos a compras ou operações financeiras pela internet.

Há dados com vida longa, como documentos que devem permanecer disponíveis por toda a existência da organização. Outros são temporários e podem ser descartados logo após o uso.


Em paralelo, é extremamente rápida a evolução das ferramentas utilizadas para executar operações com dados. Há 40 anos, as unidades de informação (bytes) eram medidas em milhares (kilobytes), depois em milhões (megabytes). Hoje são corriqueiras medidas em bilhões (gigabytes) e já se começa a falar em trilhões (terabytes).

Certamente não está distante o tempo em que serão usuais medidas em quatrilhões, quinquilhões, sextilhões e até setilhões de bytes (respectivamente petabytes, exabytes, zettabytes e yottabytes).
Uma comparação simples ilustra bem essa afirmação. Em 1969, o astronauta norte-americano Neil Armstrong foi o primeiro ser humano a pisar na Lua. Para permitir o que ele qualificou de “passo gigantesco para a humanidade”, a nave Apollo 11, que o transportou junto com Edwin Aldrin Jr. e Michael Collins, contou com o auxílio de um “sofisticado” computador batizado de AGC (Apollo Guidance Computer = Computador de Orientação da Apollo).

Nesse equipamento, a memória RAM (que armazena os dados em processamento) tinha apenas 2 kB. Na maioria dos notebooks atuais, essa memória tem 2 gigabytes, ou seja, um milhão de vezes mais. Da mesma forma, o disco rígido de um notebook médio de hoje tem capacidade para armazenar dez milhões de vezes mais informações do que os 32 kB do AGC.


A capacidade de processamento dos computadores, que combina velocidade de processamento e frequência de operações (o chamado clock), também evolui com igual rapidez. Os computadores são cada vez mais rápidos e realizam cada vez mais operações por segundo, e essa tendência deve manter-se por um bom tempo, enquanto softwares são lançados diariamente, trazendo novas e melhores soluções para os mais variados problemas.


De seu lado, o usuário é cada dia mais exigente e se mostra francamente propenso a adquirir mais modernidade e agregar novas funcionalidades ao seu sistema, seja este uma imensa rede corporativa ou um simples computador de uso doméstico.


Nesse cenário de contínuos avanços tecnológicos, o grande desafio é conciliar todos os recursos citados com as diferentes necessidades de processamento de dados, de modo que as operações sejam eficientes, econômicas, confiáveis e seguras, na mais ampla acepção de todos esses adjetivos.

Aí entra em jogo um fator que, embora apresente grande capacidade de adaptação, evolui em ritmo mais lento: o ser humano, início e fim de tudo o que se disse até aqui. Em outras palavras, é gente que produz resultados, e gente bem preparada produz resultados melhores.


Tudo isso conduz à conclusão de que, na área de TI, além de especialistas em diferentes áreas (como bancos de dados, segurança digital e arquitetura de informação), são necessários profissionais com múltiplas especialidades, visão e habilidades abrangentes, capacitados a gerenciar de forma estratégica todos os dados vitais para sua organização.

O Brasil conta com pouquíssimos profissionais com esse perfil e, na verdade, estes não são muitos mesmo no chamado mundo desenvolvido.


As organizações que entenderem esse quadro mais cedo, certamente estarão à frente no mercado, pois esse é um caminho sem volta. O volume de dados com que terão que lidar em seu dia a dia será cada vez maior, e as eventuais complicações crescerão na mesma proporção.

Portanto, conferir ao gerenciamento de dados o destaque que deve ter nesta era da informação é uma necessidade a que toda empresa deve estar atenta, sob pena de perder espaço e competitividade. Ao mesmo tempo, essa é também uma nova e promissora oportunidade de carreira e crescimento que se abre aos profissionais de TI.


Allen A. Dupré (allendupre@yahoo.com.br) é jornalista e diretor de Marketing do capítulo brasileiro da DAMA – Data Management International, associação sem fins lucrativos sediada nos Estados Unidos e presente em 23 países

Monday 10 January 2011

Obama prepara lei para xeretar o Facebook e o Skype

A notícia caiu na internet na semana passada com o estardalhaço digno de uma foto de celebridade nua: o governo americano quer xeretar redes sociais como o Facebook e de telefonia como Skype para pelo FBI e outras agências de inteligência.

Segundo as manchetes dos jornais americanos, a administração Barack Obama estaria pressionando as empresas citadas para que permitissem a escuta e coleta de dados de internautas.

O Departamento de Justiça dos Estados Unidos prepara argumentos legais que forçariam as empresas a adotar medidas que possibilitem esse tipo de espionagem. E a Casa Branca deve enviar em breve ao Congresso um projeto de lei que regulamenta os serviços de comunicação online, facilitando o grampo em mensagens de voz e de texto pela internet.

O assunto teria merecido esse grau de gritaria, caso não fosse tão velho. Desde o início do ano passado, vários observadores e analistas da internet já havia escrito sobre isso. Fizeram mais: mostraram como o governo americano - e outros do mundo - já fazem a arapongagem.

O professor Nathaniel Aron, da Universidade de Ohio e especialista em tecnologia de informática, não se surpreende.

- Não sei por que os jornais do mundo deram a notícia com tanto sensacionalismo. Na verdade a notícia é fria.

Além disso, diz ele, as empresas privadas e grandes corporações já têm amplas margens para vasculhar informações dos usuários do Facebook.

- O próprio site vende dados de pessoas físicas. Como já disseram: no Facebook, a pessoa não é cliente, mas sim inventário. São negociadas e vendidas como mercadorias. Por que o governo não entraria nessa freguesia?

Escutas já são possíveis

Se no Facebook o comércio de informações é mais aberto, o que poderia acontecer com o Skype? Afinal, trata-se de um site de telefonia, para comunicação de som e imagens via Internet.

- Já é possível algum tipo de escuta também nessa comunicação. Mas é algo bem mais difícil. Será necessário que a empresa Skype concorde em mudar seus algorítimos [códigos de sistema], de forma a abrir janelas para quem for interferir na conversa. Essa mudança é algo complicado. E ainda traz a desvantagem de dar abertura para hackers com intenções criminosas.

Ou seja: para que o governo americano possa ouvir as transmissões via Skype, será necessário mudança no modo de operação da empresa que fornece o serviço. Seria, por exemplo, como se as autoridades ordenassem a uma montadora de automóveis a modificar completamente um tipo de motor de sucesso e sua linha de montagem.

É possível que isso aconteça, mas custa caro e dá enorme trabalho, sem a garantia que o novo modelo terá a mesma eficiência e aceitação do antigo.

Medo do terrorismo justifica mudança

O governo Obama procura interceptar conversas particulares. A justificativa é, como sempre, a da segurança nacional, para prevenção principalmente de atos terroristas.

O deputado Peter King, republicano por Nova York, defende a medida.

- Os grupos terroristas evoluem rapidamente. Eles estão usando cada vez mais a comunicação via Skype para fugir das escutas. É preciso impedir isso.

As autoridades dos EUA lembram que nenhuma escuta seria feita sem a devida autorização judicial. E cidadãos americanos, em comunicação com outras pessoas em território nacional, não podem ter sua correspondência, mesmo telefônica, violada. A Constituição garante isso. E o Poder Judiciário é quem decide a quebra dessa regra, caso a caso.

A notícia da xeretice em sites sociais e de telefonia, porém, remonta história ainda mais antiga. É o caso dos chamados grampos em telefones de linha fixa. A prática é quase tão velha quanto o próprio aparelho.

Some-se a esse exemplo a arapongagem em telégrafos, captura de pombos-correio, até a leitura de sinais de fumaça, quando ainda se praticava esse tipo de comunicação.

Até que demorou muito para que toda a internet entrasse nesse balaio.

Friday 7 January 2011

Redes e Internet: você sabe o que é um endereço IP e suas 5 classes diferentes?

Tudo conectado à internet possui um endereço IP, é inevitável não se ter um quando a rede mundial de computadores está diretamente baseada nisto. Mas, você sabe sabe o que é um endereço IP e, indo mais a fundo, suas 5 classes diferentes?

De maneira bem simples, um endereço IP é como o nome de um país, cidade, rua e número da casa dos nossos computadores (ou outro equipamento conectado), tudo em números.

Ele é a forma com que um micro é identificado na internet ou em uma rede interna privada, normalmente esta última encontrada em empresas. Um endereço IPv4, padrão atualmente utilizado (mas que vêm sendo substituido “na força” pelo IPv6) é formado por 32 bits, o que é o mesmo que dizermos que possui quatro octetos representados na forma decimal (ex: 192.168.1.1). Uma parte desse endereço (bits mais significativos) indicam a rede e a outra parte (bits menos significativos) indicam qual a máquina dentro desta mesma rede.

Uma vez que são 4 octetos com até 3 números cada (de 0 a 255, com exceção do primeiro octeto que começa em 1), existem 4.228.250.625 de possibilidades diferentes. Com o objetivo de possibilitar a identificação das diversas formas diferentes de redes foram criadas as 5 classes de IPs. São elas a A, B, C, D  e E.

Originalmente, o espaço de endereçamento IP foi dividido em estruturas de tamanho fixo designadas de “classes de endereço”. As principais são a classe A, B e C. Com base nos primeiros bits (prefixos) de um endereço IP, conseguimos facilmente determinar rapidamente a qual a classe pertence de determinado endereço IP.

Classe A

A classe A possui um conjunto de endereços que vão desde o 1.0.0.0 até 127.0.0.0, onde o primeiro octeto (primeiros 8 bits R.E.E.E, onde R é a rede e E o equipamento) de um endereço IP identifica  a rede e os restantes 3 octetos (24 bits) irão identificar um determinado computador ou equipamento nessa rede. Como exemplo, podemos usar o IP 72.80.140.59 que pertence aos Estados Unidos.

Classe B

A classe B possui um conjunto de endereços que vão desde o 128.0.0.0 até 191.255.0.0, onde os dois primeiros octetos (16 bits R.R.E.E) de um endereço IP identificam  a rede e os restantes 2 octetos (16 bits) irão identificar um determinado equipamento. Como exemplo, temos o 130.20.120.36.

Classe C

Seguindo a linha, IPs de classe C possuem um conjunto de endereços que vão desde 192.0.0.0 até 223.255.0.0, sendo os três primeiros octetos (24 bits R.R.R.E) os que identificam a rede e o último (8 bits) o equipamento. Parte dos endereços do Brasil são assim compostos, como o 201.50.7.250 por exemplo.

Classes D e E

Endereços IP de classe D ou E são endereços especiais e reservados. Em destaque a classe E, que apenas opera em testes. Em suma, não há uma especificação de qual octeto que identifica a rede ou equipamento neles, o que dificultaria a utilização em série.

Fonte : http://technow.ws/curiosidades/10785/

Wednesday 5 January 2011

Lei sobre crimes digitais passa mais um ano sem votação

Há mais dez anos em tramitação no Congresso Nacional, o Projeto de Lei 84/99, que trata de crimes cometidos por meio da internet, ainda gera controvérsias. O ponto mais polêmico do texto, que foi aprovado pela Câmara em 2003 e voltou do Senado em 2008, é a obrigatoriedade dos provedores armazenarem por até três anos as informações de conexão dos usuários. Embora o projeto tramite em regime de urgência, as comissões que tratam do tema não chegaram a votar seus pareceres até o fim de 2010. Com isso, a votação ficou para esta próxima legislatura.


O substitutivo apresentado em novembro do ano passado pelo relator do projeto na Comissão de Constituição e Justiça e de Cidadania (CCJ), deputado Regis de Oliveira (PSC-SP), obriga provedores tanto de acesso quanto de conteúdo a armazenar informações como IP (número que identifica uma conexão à internet), data e hora da conexão. A versão do senador Eduardo Azeredo (PSDB-MG) determina essa obrigação apenas aos provedores de acesso.


Como o texto do Senado obriga provedores a guardar informações de tráfego (sobre quem se conectou com quem, a que horas, por quanto tempo etc.), o deputado Paulo Teixeira (PT-SP), integrante da Comissão de Ciência e Tecnologia, Comunicação e Informática, reclama que a lei permitirá a essas empresas quebrar o sigilo dos usuários sem autorização judicial.

"Além disso, o texto não prevê como as informações devem ser armazenadas", criticou. Teixeira avalia que, diante dessas incoerências, o projeto "dificilmente vai prosperar na Câmara".

Ele diz que há também problemas regimentais com o relatório de Regis Oliveira. Como já foi aprovado na Câmara e modificado no Senado, "o texto agora poderia receber somente emendas supressivas", explicou.


O ex-relator na Comissão de Ciência e Tecnologia, Comunicação e Informática, deputado Julio Semeghini (PSDB-SP), concorda que a versão atual não tem condições de ser aprovada.

"Teria de ser construído um texto, parte da Câmara, parte do Senado, que, mesmo assim, precisaria de alguns destaques supressivos", sustenta.

"Estamos tentando construir esse acordo com o deputado Paulo Teixeira, com o PT e com o Ministério da Justiça."


Para viabilizar a aprovação, Regis Oliveira se diz disposto a modificar seu relatório. Ele pode, por exemplo, suprimir a parte que obriga provedores a guardar os dados. "Vamos tipificar os crimes e deixar o resto para depois; isso passa facilmente na Câmara, podemos até aprovar o texto original do Senado", propõe.

Semeghini, entretanto, questiona os argumentos contrários à preservação dos dados de acesso. "Dizem que não querem que seja quebrada a privacidade do cidadão, mas o que acontece é exatamente o contrário", afirma. O parlamentar lembra que hoje os provedores já podem armazenar todos os dados de conexão, e "a grande maioria guarda".

No entanto, ressalta "guardam de qualquer jeito", porque não há regra para garantir que isso seja feito em lugar seguro. "Quando vazam essas informações, não é responsabilidade de ninguém, e na verdade a privacidade do cidadão já está quebrada." E o pior, em sua opinião, é que repassam esses dados para órgãos investigativos sem autorização do juiz.


A necessidade de mandado judicial para que investigadores tenham acesso aos dados dos usuários da internet foi suprimida do texto por Regis de Oliveira. Ele próprio, no entanto, reconhece que a alteração "é questionável". "Isso também é discutível", afirma.

Com informações da Agência Câmara.

Tuesday 4 January 2011

Tecnologias na Nuvem: talvez o maior desafio da sua carreira

Todo ano, no mês de outubro, o Gartner realiza o seu circuito mundial de simpósios. Começa nos Estados Unidos –é a nossa maior conferência anual, com cerca de oito mil participantes – e segue depois, em edições mais compactas, para França, África do Sul, Austrália, Japão e, a partir deste ano, Brasil. A ideia é apresentar um amplo panorama da tecnologia para apoiar os profissionais de TI que nesse momento estão fazendo seus planejamentos para o próximo ano.


Uma das apresentações mais esperadas nestes eventos é sobre “as 10 tecnologias transformadoras” que na nossa visão irão causar maior impacto nas empresas, nos próximos anos.


O processo por meio do qual se chega às 10 tecnologias – e só 10, é complicado e parece um pouco com um concurso, onde cada um dos 720 analistas do Gartner tem uma candidata preferida e é capaz de justificar, com doses iguais de racionalidade e paixão, o porquê ela deve estar entre as 10 mais.

Enfim, os coordenadores do processo, com muita racionalidade e pouca paixão, conduzem uma série de reuniões de avaliação que vão reduzindo as candidatas até sobrarem apenas 10. Esta é a lista de 2010:
1 – Computação em nuvem
2 – Dispositivos móveis e tabletes
3 – Análise de BI avançada
4 – Análise social
5 – Tecnologias de mídias sociais
6 – Vídeo como mídia e como conteúdo
7 – Percepção de contexto computacional (“context awareness computing”)
8 – Computação em todos os lugares (“ubiquitous computing”)
9 – Memória flash
10 – Computação em malha de rede (“fabric computing”)


A computação na nuvem apareceu de repente entre as dez mais, já em segundo lugar, em 2007. Chegou a primeiro em 2008 e permanece aí em 2009 e 2010.


Os critérios para que uma tecnologia possa aspirar uma posição na lista – e, portanto, merecer a atenção das empresas – são que ela deve ser estratégica e “perturbadora” (“disruptive”, em inglês).
Uma tecnologia é considerada estratégica se nós percebemos que sua implementação e seu uso podem trazer significativo impacto na empresa nos próximos anos: mudanças nos negócios, mais valor e mais competitividade.

E ela é perturbadora quando pode transformar pessoas, processos e tecnologia através de soluções novas e radicais, imaturas, por definição, que trazem riscos novos e significativos – e também recompensas novas e significativas e, por isso, são adotadas.


A computação em nuvem é uma família de tecnologias muito diversas (mais um zoológico que uma família), que têm em comum um conjunto básico de características: são oferecidas sempre como serviços, que são escaláveis e elásticos, padronizados, compartilhados entre muitos clientes, pagos pelo uso e entregues através da Web.

Já existem serviços na nuvem sendo oferecidos em cada camada da arquitetura tecnológica. Por exemplo, “infrastructure utility” (infraestrutura), “application platform as a service” (plataforma), “software as a service” (aplicação), “Web engine” (acesso a conteúdo) e “business process utility” (processo).
O potencial mais evidente dessas tecnologias é revolucionar a equação econômico-financeira de como uma empresa adquire e paga TI.

São tecnologias que exigem investimentos praticamente nulos, transformando custos fixos em custos variáveis. Além disso, como são pagas pelo uso, em princípio, a curva de gastos é paralela à curva de receitas. Mas não é só isso. Com suas características de agilidade, flexibilidade, escalabilidade e acesso, podem revolucionar o desenho de processos de negócio.

Essa inovação trazida por processos de negócio radicalmente novos deve resultar em um salto no valor que TI entrega ao negócio.
O autor canadense Don Tapscott (“Wikinomics”) diz nas suas palestras ao redor do mundo:

“Devemos começar a pensar na Web como um único e gigantesco computador. Todos os negócios estarão aí”. É uma visão poética e provocadora, que não necessariamente vai se converter numa realidade para todas as empresas. Mas todas – que hoje têm arquiteturas tradicionais – precisam começar a caminhar na direção a uma arquitetura mais amigável à Web.


E aí entram os profissionais de TI.


Na pesquisa que fizemos entre CIOs de todo o mundo no final de 2009, os CIOs brasileiros se mostraram muito mais inclinados à adoção de serviços na nuvem que seus colegas de outras partes do mundo.

De fato, faz sentido. Com orçamentos de TI mais limitados que seus competidores lá fora, o CIO brasileiro percebe os serviços na nuvem como uma alternativa viável para a adoção de tecnologias de ponta, que coloquem sua empresa em paridade tecnológica global.

Aí, com um pouco de criatividade no uso dessas tecnologias, combinando componentes dos serviços na nuvem de maneira inovadora, as empresas brasileiras podem conseguir o diferencial competitivo necessário.


Pensando assim, eu esperava ver em 2010 uma forte aceleração na adoção desses novos serviços e, na verdade, pouco ou quase nada aconteceu. Como se pode explicar esse comportamento, contrariando na prática o que havia sido dito na pesquisa?


Para mim, parece que existem duas explicações complementares. A primeira é uma reação à imaturidade dos serviços. Esses serviços trazem uma combinação desafiadora de duas características: de um lado, trazem riscos novos, que não sabemos gerir; de outro, os serviços nas nuvens já chegam prontos, os clientes têm muito pouca possibilidade de gestão sobre eles. A segunda explicação me parece mais subjetiva e pouco percebida (ou discutida).


Talvez inconscientemente, os profissionais de TI receiem adotar os serviços na nuvem por não terem as competências profissionais para a nova situação. De fato, as regras mudam completamente. Muda completamente a maneira como se deve especificar, escolher, contratar e gerir um serviço na nuvem. Ser um grande especialista em quaisquer das tecnologias que foram críticas na TI tradicional já não garante um desempenho superior nesse novo mundo.


É verdade que poucas empresas precisam completar a transição para uma arquitetura totalmente centrada na Web. Também é verdade que essa transição, mesmo que parcial, vai levar algum tempo. Mas certamente todas as empresas precisam iniciar essa jornada. Agora. O valor potencial a ser entregue pela nova TI ao negócio é muito grande para deixar para depois.


E aí voltamos aos profissionais de TI. Eles têm que liderar essa transição. Eles têm que indicar os novos caminhos ao pessoal de negócios. Eles têm que mostrar como obter muito mais valor para os negócios com as novas tecnologias.

Em contrapartida, internamente eles têm que estar dispostos a iniciar a jornada que vai transformar a antiga área de TI em uma organização que esteja preparada para entregar valor ao negócio a partir dos novos serviços.


Na verdade, o fato de serem especialistas em uma ou outra tecnologia talvez não seja a característica mais importante dos profissionais de TI. Em minha opinião, o que caracteriza esses profissionais e o que os torna valiosos para suas empresas, é o seguinte: um grupo de profissionais de alto nível, com competências diversificadas (informação, processos, organização e tecnologias), em geral criativos, que têm a capacidade de trabalhar colaborativamente na criação de soluções de negócios.

É isso que torna a área estratégica para todas as empresas, usando TI, tecnologias na nuvem ou quaisquer outras que sejam necessárias.


Bem-vindo à nova área de Gestão de Tecnologias de Negócios!


*Cassio Dreyfuss é Vice-Presidente de Pesquisa do Gartner