Monday, 30 May 2011

Tablets ainda não têm classificação específica em sistema, admite Anatel

A Anatel admitiu, em comunicado , que o controle interno do processo de certificação de tablets ainda não dispõe de classificação específica para este tipo de aparelho. Essa identificação permitiria identificar, de forma instantânea e precisa, a relação de modelos e marcas sob análise do regulador, para homologação e comercialização em todo território nacional. Esta semana, ao ser questionada sobre o total de tablets certificados no Brasil, a Anatel omitiu vários modelos já aprovados.


“Devido ao fato deste tipo de produto não ter classificação específica em nosso Sistema de Gestão de Certificação e Homologação, teríamos que consultar centenas de processos para obter uma lista completa e encontrar, também, os últimos pedidos de homologação deste tipo de produto”, procurou justificar-se a agência. “Tablet é uma classificação mercadológica e não regulatória”, explica a agência, acentuando, ainda, que recebe diariamente “de 20 a 30 pedidos de certificação de (todo tipo de) produtos".


“Sobre a lista de modelos certificados, enviada anteriormente (a este noticiário), esta era exemplificativa e não exaustiva”, avisou a nota da assessoria de imprensa.
Originalmente, por mensagem eletrônica, a agência informou que só havia certificado e homologado produtos da Apple (três), Samsung (um) e Archos (um). Modelos Motorola e ZTE, por exemplo, ficaram de fora, como se estivessem sendo comercializados irregularmente no país – o que não é o caso.


A Anatel não precisou quando terá uma solução que permita prestar informações seguras sobre tablets certificados. O processo de certificação e homologação é que dá aos equipamentos eletroeletrônicos de telecomunicações a garantia de compatibilidade eletromagnética às regras em vigor no país, para que chegue ao consumidor com qualidade e segurança.

Saturday, 28 May 2011

Facebook founder Zuckerberg tells G8 summit: don't regulate the web

Leading internet figures have warned world political leaders against trying to regulate the web, telling them to leave alone a process that has flourished without government interference.

Facebook's founder, Mark Zuckerberg, wearing a rare suit and tie, told leaders at the G8 that excessive regulation would not work, and called for more investment in high-speed technology.

G8 leaders agreed a communique in which they welcomed the role of the net in providing economic growth and personal freedom, but also warned of its threat to privacy and intellectual property.

The wording reflects tensions within the G8 over the determination of President Nicolas Sarkozy to push regulation of the net up the political agenda, including protection of intellectual property.

He staged a two-day conference on the issue in Paris before the summit, and five of the leading participants, including Zuckerberg, reported on their deliberations.

"This has been almost unanimous that we should provide free, open access to the internet to everyone on earth," said Maurice Lévy of the Publicis advertising group, who hosted the e-G8 meeting in Paris.

"Yes, we should protect intellectual property; no, we shouldn't create a situation by which the internet cannot grow and cannot develop," Lévy said, warning that failure to provide high-speed internet could "create a collapse of the system".

"There is a serious need to invest heavily in high-speed ADSL and other high-speed systems," Lévy said, adding that the summit of internet leaders would become an annual event.

David Cameron's aides are privately sceptical that the Sarkozy initiative will lead anywhere.

Eric Schmidt, the executive director of Google, said: "The internet is the greatest force for good in the world. We should not have premature regulation ahead of innovation. There are technical solutions to these problems. Sarkozy sent a strong message he'd like to work with us on these issues."

Schmidt said governments shouldn't charge telecommunication companies excessively high prices for bandwidth, saying the higher costs would be passed on to customers, holding back economic growth.

He also slammed regimes such as in Iran and Syria for cutting internet access in the face of pro-democracy protests, describing it as a "terrible mistake".

Zuckerberg said: "I'm happy to play any role they ask me to play… the internet is really a powerful force for giving people a voice." Zuckerberg has been challenging Sarkozy all week, and said: "People tell me: 'It's great you played such a big role in the Arab spring, but it's also kind of scary because you enable all this sharing and collect information on people.'

"But it's hard to have one without the other. You can't isolate some things you like about the internet, and control other things you don't."

Schmidt said that Iranian and Syrian measures to cut off internet access were "desperate moves".

"It is a terrible mistake for them to do so. Among other things, it completely screws up the economy, communications, the exchange of goods, the electronic commerce, the flow of information into these countries… it's not a good idea to shut down the internet in your country," he said.Many internet bosses believe governments are going to be unable technically let alone legally to control the internet as technology develops.

Fonte www.guardian.co.uk

Friday, 27 May 2011

Virtualização: cinco diretrizes essenciais

Empresas precisam implementar melhores práticas para seguir aproveitando os benefícios da tecnologia.

Os conceitos tecnológicos da virtualização e da computação em nuvem fizeram com que as questões de gerenciamento de serviços se tornassem tão importantes para os departamentos de TI quanto a própria tecnologia. No pacote, vem o envolvimento mais estreito com as aplicações e as unidades de negócios que trabalham com a infraestrutura.

Segundo o analista da Forrester James Staten, se a virtualização tivesse parado em alguns servidores, a pressão para reorganizar a empresa teria acabado assim que alguns poucos administradores de sistemas tivessem aprendido a trabalhar com mais de um departamento ao mesmo tempo, além de gerenciar servidores virtuais.

Mas não parou por aí. O mundo virtual é muito mais dinâmico que o físico e cruza várias fronteiras organizacionais tradicionais. “Sem repensar a estrutura organizacional e alinhá-la a uma infraestrutura virtual, a empresa não consegue se manter no compasso da tecnologia”, avalia o vice-presidente de pesquisa do Gartner Chris Wolf.

As lacunas podem passar despercebidas em um primeiro momento, acobertadas pelo aumento da eficiência técnica e do retorno sobre o investimento (ROI) que as empresas adquirem logo no começo. Mas à medida que mais servidores forem sendo virtualizados, a empresa que não souber identificar eventuais fraquezas vai perder a capacidade de colher benefícios da infraestrutura virtual, limitando o sucesso das migrações.
Para evitar esse quadro, alguns princípios consistentes da gerência de infraestrutura virtual podem ser implementados para evitar problemas.

1 – Foco do gerenciamento deve ser ampliado
Parece uma dica simplista, mas a mudança de servidores físicos para virtuais também elimina os limites dos trabalhos dos administradores de sistemas. Dessa forma, os profissionais mudam seu foco da caixa física para todos os servidores virtuais, mesmo aqueles que estão em servidores físicos distantes. Isso inclui as atividades de balanceamento de carga, segurança ou todas as aplicações de uma unidade de negócios específicas que rodam em máquinas virtuais.

Pensando gerencialmente, isso poderia quebrar as relações tradicionais de funcionários e administradores de sistemas no mesmo local. Uma pequena parte dos profissionais ficaria atada a plantas e servidores físicos, mas a maioria ganharia essa nova dinâmica, divida por área funcional. “No entanto, o grande desafio é fazer com que isso funcione”, completa Wolf.

2 – Hierarquia reduzida e descrições dos trabalhos ampliados
A mesma dinâmica com a qual se distribui profissionais onde eles são mais necessários reduz a necessidade de diversas cargos entre administradores de sistemas de primeiro nível e o CIO. Gerentes regionais, que tinham ênfase geográfica, podem ser realocados em desenvolvimento de projetos mais inovadores, trabalhando em planejamento de capacidade de gestão de operações mais sofisticadas, diz a pesquisadora da Forrester, Rachel Dines.

Segundo Rachel, o planejamento de capacidade em um ambiente virtual implica avaliar a infraestrutura como um todo, exigindo um novo conjunto de habilidades. Também é importante para o projeto de virtualização e para o desempenho da TI como um todo ampliar as descrições dos cargos, colocando como pré-requisito não somente a capacidade de gerenciar hardware, mas de antecipar as necessidades das unidades de negócios.

3 – TI não deve se comportar como se fosse utility
Com a expansão de novos conceitos tecnológicos, os líderes de unidades de negócios se sentem tentados a pedir serviços de tecnologias de provedores externos sem passar pelo departamento da companhia. Com esse horizonte, o relacionamento estabelecido por TI tem que mudar.

De acordo com o diretor de marketing de produto da VMWare, Rob Smoot, para lidar com isso a área de TI deve ser comportar mais como uma área de serviços, suportando necessidades de negócios e permitindo a exploração de lojas de aplicativos e provisionamento dos próprios servidores.

Nesse contexto, o relacionamento representa mais e menos trabalho para TI; porque requer do departamento um diferente conjunto de regras e processo para permitir que os usuários finais façam mais coisas de forma autônoma, mantendo a proteção das informações que precisam ser protegidas e impedindo a canibalização da capacidade da empresa. “Isso também implica em aumentar a capacidade de observar o ambiente em tempo real para responder às demandas dentro de um processo mais maduro”, explica Smoot.

4 – Treinamento deve ganhar mais destaque que contratações
De acordo com o diretor-executivo da Robert Half internacional, John Reed, as mudanças organizacionais tendem a levar às empresas para contratações, mas as companhias que se posicionam melhor na área de virtualização optam por treinar as pessoas para as áreas mais críticas.
Aqueles títulos que levam a palavra “arquiteto” são os mais críticos, pelas características de planejamento de capacidade, projeto e implementação, balanceamento de carga e conhecimento funcional das cargas de trabalho que rodam nos servidores virtuais.

Isso não quer dizer, no entanto, que as contratações devem ser descartadas. Em alguns casos, as necessidades das empresas são muito grandes para serem atendidas somente com treinamentos e a empresa precisa estudar o equilíbrio ideal entre as duas práticas.

5 – Automação é essencial
Segundo o vice-presidente e analista do Forrester, Frank Gillett, a automação e a maturidade de processos não são exatamente a mesma coisa, mas se sobrepõem de forma significativa. E a maioria das companhias não está pronta para realizar mudanças em larga escala para acomodar a virtualização, mesmo que acredite na tecnologia.

Para mudar o quadro, as empresas precisam automatizar a segurança, criar políticas de provisionamento automatizado e respeitar toda a camada de implementação de virtualização previstas nas melhores práticas. O próprio conceito de cloud, que prevê cobrança por capacidade utilizada, depende de uma efetiva tecnologia de automação.

Anatel publica consulta com metas de qualidade para o setor

Anatel publicou nesta terça, 24, a proposta do Regulamento de Gestão da Qualidade das Prestadoras dos Serviços de Televisão por Assinatura. Trata-se do documento que disciplinará a forma como as operadoras, de todas as tecnologias de TV paga, se relacionarão com o assinante. A consulta pública vai até o dia 22 de junho e está disponível no site da agência.


Entre as novidades do chamado PGMQ da TV por assinatura estão as seguintes metas:


* A relação entre o número total de reclamações recebidas pela prestadora e o número total de assinaturas, no mês, não deve ser superior a 2%, sendo que nunca mais de 0,5% referente a uma única categoria (programação, instalação, cobrança, atendimento, defeito, cancelamento).


* A relação entre o número total de reclamações recebidas na Anatel, em desfavor da prestadora, e o número total de reclamações recebidas em todos os canais de atendimento da prestadora, no mês, não deve ser superior a 2%


* O tempo de espera, quando do comparecimento ao Centro de Atendimento das prestadoras, não poderá ser superior a 20 minutos, em, no mínimo, 95% dos casos. Em nenhum caso o tempo de espera poderá ser superior a 30 (trinta) minutos.


* Nas chamadas destinadas às prestadoras que utilizarem sistema telefônico de autoatendimento em que for solicitada a intervenção de atendente, o tempo de espera, após realizada a seleção dessa opção, não deve ser superior a 20 segundos, no mínimo, em 85% dos casos. E em nenhum caso o tempo de espera para o atendimento deverá ser maior que 60 segundos.


* A falha ou defeito na prestação do Serviço de Televisão por Assinatura, que cause ou não interrupção do serviço, deve ser solucionada em 95% dos casos em até 24 horas, contadas da identificação da necessidade de reparo.

* Em qualquer situação, o reparo da falha ou defeito deve ser realizado em até 48 horas, salvo em caso de interrupções do serviço decorrentes de casos fortuitos ou de força maior, devidamente comprovadas e justificadas perante a Anatel e informadas aos seus assinantes.


* A falha ou defeito na prestação do Serviço de Televisão por Assinatura, que cause ou não interrupção do serviço, nos locais da Área de Prestação do Serviço com infraestrutura urbana deficiente, deve ser solucionada em 90% dos casos em até 24 horas, contadas da identificação da necessidade de reparo. Em qualquer situação, o reparo da falha ou defeito deve ser realizado em até 72 horas.


Além desses indicadores, cujas metodologias de aferição estão todas disponíveis na consulta, os operadores terão a obrigação de apresentar uma pesquisa de campo periódica com a avaliação da qualidade percebida.

Trata-se de uma pesquisa, realizada por empresa contratada pelo operador, cujo formulário será elaborado pela Anatel e terá sua metodologia verificada, e que identificará os atributos julgados importantes pelos assinantes dos serviços de televisão por assinatura, a qualidade percebida pelo assinante relativa aos atributos importantes; retratará fidedignamente a visão do assinante; e será transparente à sociedade, segundo o regulamento proposto.


As metas colocadas serão um pouco mais duras para operadores com Poder de Mercado Significativo, mas a definição do que é o operador com PMS virá em regulamentação específica, provavelmente no Plano Geral de Metas de Competição (PGMC).

Da mesma forma, operadores sem PMS terão mais tempo para se adaptarem a estas exigências de qualidade.

Wednesday, 25 May 2011

Hackers aproveitam onda e miram celulares inteligentes e tablets

O número de smartphones e tablets no Brasil ultrapassou os 60 milhões em março deste ano. Quem carrega um deles no bolso leva também um alvo. Em 2011, esses dispositivos móveis estão na mira de cibercriminosos, que acompanham o crescimento da venda dos aparelhos, desenvolvendo conteúdos maliciosos cada vez mais sofisticados para roubo de dados e invasão de privacidade.

De acordo como uma pesquisa da empresa de segurança Kaspersky, o número de ameaças a smartphones e tablets em 2010 aumentou 65% em relação a 2009. As projeções de especialistas são de que 2011 seja o ano das ameaças, com crescimento de pelo menos 42% de ataques. Por isso, um aparelho desprotegido é um alvo fácil.

Ainda segundo o mesmo balanço, foram incluídas no banco de dados da fornecedora cerca de mil variantes de 153 diferentes famílias de ameaças a esses aparelhos, incluindo vírus, pishing, spam, spywares, e outros perigos.

Apesar de a vulnerabilidade de um telefone celular ou um tablet conectado à internet ser considerada a mesma de um desktop ou notebook, os aparelhos de mão são mais vulneráveis porque têm mais entradas para os conteúdos infectados.

Geralmente, computadores estão ligados a uma única porta de comunicação, seja em residências ou empresas. Já a maioria dos dispositivos móveis tem a porta de conexão de dados com a operadora, a entrada de dados via tecnologia Bluetooth, os suportes para cartões de memória e a conexão Wi-Fi – todas suscetíveis à invasão de conteúdo, o que pode resultar em roubos de logins e senhas, dados bancários, números de cartões de crédito, exclusão de informações importantes e até gravações de ligações.

Para o diretor comercial da fornecedora de softwares de segurança Symantec, Paulo Vendramini, a distração do usuário ao manipulá-los também é um fator que ajuda os hackers a disseminarem as ameaças mais facilmente.

– Como exemplo, podemos pensar nas pessoas que acessam as redes sociais por meio do telefone quando estão no trânsito, almoçando, ou em uma roda de amigos. Na maioria das vezes a pessoa entra em um link sem questionar se é suspeito ou não, na pressa de ver ou mostrar o conteúdo para alguém.

Segundo ele, os encurtadores de endereços da web têm sido ultimamente um dos grandes riscos para os proprietários de smartphones. Como a maioria dos links encurtados é semelhante, não dá sequer para imaginar se o conteúdo é suspeito.

– Quando se usa o computador, há a opção de deixar uma janela aberta com uma das várias soluções disponíveis para rastrear links suspeitos, mesmo os encurtados. No celular, além de demorar mais, não é prático copiar um endereço, abrir o navegador, colar e esperar o diagnóstico. Isso passa despercebido.

Por causa das diferentes plataformas, como Android (Google), Symbian (Nokia), BlackBerry (RIM), IOS (Apple) e Windows Phone (Microsoft), os cibercriminosos preferem usar a internet como alvo, já que o acesso a ela é comum a todos os sistemas e só depende do navegador de cada um.

Segundo o especialista em segurança digital da fornecedora de softwares de segurança TrendMicro, Fioravante Souza, os hackers tendem a não perder tempo criando ameaças específicas para cada plataforma e investem em um arquivo ou página da web que possam ser acessados por qualquer aparelho.
– Os ciberataques atingiram uma perfeição que até mesmo os especialistas em segurança têm dificuldade para identificá-los.
Ainda segundo Souza, muito em breve as pessoas vão entender a importância de ter soluções de segurança nos aparelhos assim como têm nos computadores.

Consumidora promete entrar em estado de alerta

A fonoaudióloga Araceli Vasconcelos, de 23 anos, possui um smartphone com o sistema operacional Symbian – uma das plataformas mais atacadas, juntamente com o Android - e tem plano de dados com conexão ilimitada à internet, além da tecnologia Wi-Fi.

Ela usa o aparelho para checar e-mails e se conectar a um programa de bate-papo on line, que unifica Google Talk, Messenger e chat do Facebook.No entanto, não tem software de proteção instalado.

– Os arquivos que abro no e-mail são itens que estou esperando, de pessoas conhecidas. Assim que comprei o aparelho tentei instalar um antivírus, mas não consegui e deixei para lá. Até hoje não tive problemas, por isso não me preocupei em instalar novamente. Mas vou tentar fazer isso em breve.

Araceli diz que os aplicativos que existem no celular permitem que ela visualize os links encurtados na forma original do endereço de web, o que facilita na identificação de conteúdo suspeito ou não.

Os recursos de blindagem

Além dos links postados em redes sociais que podem conter ameaças combinadas, capazes de monitorar o telefone, aqueles recebidos por SMS também são uma ameaça. Muitas vezes eles contêm informações ou anunciam promoções com temas que pertencem ao universo dos usuários e direcionam para sites com “espiões virtuais”, que rastreiam todos os dados do telefone.

Especialistas alertam que, além de manter um software de segurança confiável e atualizado no telefone, o ideal é optar por aparelhos que oferecem, de fábrica, criptografia de dados, bloqueios de conteúdo por senha pessoal, sistemas de identificação do cartão SIM (chip), entre outros recursos que reforçam a segurança de quem usa um smartphone.

Tuesday, 24 May 2011

Cartão de crédito terá menos tarifas e novo limite para pagamento do rotativo

O Banco Central vai diminuir o número de tarifas cobradas no cartão de crédito e limitar o pagamento mínimo da fatura. As novas regras, que entrarão em vigor no próximo dia 1º, foram divulgadas nesta terça-feira (24) como parte de um material do banco para esclarecer os consumidores. Para o BC, o principal objetivo das mudanças é acabar com o superendividamento.

Tire suas dúvidas na cartilha do BC (arquivo para download)

Sua dívida no cartão vai diminuir com limite no rotativo?

Pelas novas regras, os cartões só poderão ter cinco tarifas cobradas pelos bancos: anuidade, emissão de 2ª via do cartão, saque, uso do cartão para pagamento de contas e avaliação emergencial para mudança do limite de crédito.

Os cartões emitidos a partir de junho já entrarão nas novas regras, incluindo o limite de cinco tarifas pelo produto. Quem já tem cartão, as novas determinações passarão a valer para as faturas que vencem nomes que vem.

Mudará também o limite mínimo de pagamento do rotativo, considerado o maior vilão das finanças pessoais. Hoje, o consumidor pode optar por pagar somente 10% da fatura do mês, deixando o resto do valor para as próximas contas. Isso faz com que o crédito restante rode novos juros, o que faz a conta do cliente virar uma bola de neve.

A partir do dia 1º, o valor mínimo da fatura de cartão de crédito a ser pago mensalmente não pode ser inferior a 15% do valor total da fatura. Em dezembro, esse limite mínimo passará para 20% do valor total da fatura.

Funciona assim: se o valor da fatura do mês for de R$ 1.000, com o pagamento mínimo de 10% (R$ 100, portanto), o saldo devedor fica em R$ 900. Com uma taxa de juros de 12% (média apurada pela Anefac, associação de executivos de finanças) cobrada sobre esse saldo devedor, a fatura viria no mês seguinte no valor de R$ 1.120. O valor cobrado a título de juros seria, então, de R$ 120.

Se ele efetuar apenas o pagamento mínimo de 15% (R$ 150, portanto), o saldo devedor fica em R$ 850. Com a mesma taxa de juros, no mês seguinte, a fatura viria no valor de R$ 952. O valor cobrado a título de juros seria, então, de R$ 102.

A cartilha publicada pelo BC nesta terça ainda determina que a fatura seja mais clara e compreensível para o consumidor. Ela deverá ter, obrigatoriamente, informações claras sobre o limite de crédito total e limites individuais para cada tipo de operação de crédito; os gastos realizados com o cartão, inclusive os parcelados; a identificação das operações de crédito contratadas e respectivos valores; os valores dos encargos cobrados, informados de forma separada de acordo com os tipos de operações realizadas com o cartão; o valor dos encargos a serem cobrados no mês seguinte, no caso de o cliente optar pelo pagamento mínimo da fatura; e o CET (Custo Efetivo Total), para o próximo período, das operações de crédito passíveis de contratação.

As mudanças já haviam sido anunciadas em novembro passado. Na ocasião, o diretor de política monetária do Banco Central, Aldo Mendes, havia afirmado que a medida visava a evitar que a dívida dos consumidores se tornasse impagável.

Quando o consumidor não tem dinheiro para pagar o total da dívida e opta por quitá-la parcelada, no rotativo, os juros são cobrados a cada mês sobre o que o consumidor deixou de pagar – e quanto menor a parcela, mais juros recaem sobre a dívida e maior ela fica.

- Esta é uma regra prudencial e uma demanda dos órgãos do consumidor de que se deveria evitar o superendivadamento. É também para que a dívida seja pagável.

Veja como fugir das dívidas e das armadilhas do crédito fácil:


Quais são as dicas para renegociar uma dívida?
Fuja do rotativo para não perder o controle dos gastos
Cartão de loja tem juros de mais de 500% no rotativo
Controlar o cafezinho e o chope ajuda a sair das dívidas
Consumidor pode transferir dívida entre bancos de graça

Cinco passos para estabelecer o controle do Cloud Computing

Recentemente, o CIO da Informatica Corporation, Tony Young, observou que, no que diz respeito a adotar aplicações baseadas em nuvem (SaaS), é necessário obter um modelo de governança e arquitetura para garantir que decisões apropriadas sejam tomadas.
Segundo a THINKstrategies, companhia de consultoria estratégica, em um artigo com foco no entitulado “Cloud Control”, em português, controle da nuvem, o uso não-controlado dos serviços neste meio pode custar mais do que quando se usa recursos melhor planejados.

Por isso, abaixo estão cinco dicas que norteiam os departamentos de TI, para que eles não se envolvam na inevitável transição para a computação em nuvem. E sem que esta alternativa seja vista como um “bicho de sete cabeças”.


1.Desenvolvimento de uma estratégia de nuvem
Como em qualquer adaptação a uma nova tecnologia, primeiro é necessário determinar se o modelo de nuvem faz sentido para o seu negócio. É muito provável que seja, mesmo porque a nuvem oferece benefícios tangíveis de negócios e TI, como baixo custo de implementação e autosserviço, fatores que são simplesmente atraentes demais para se ignorar. Com a economia atual, garantir que o seu departamento de TI possa gerar valor ao negócio é o mais importante.

Trata-se também de identificar e manter as suas principais competências. Será que entre elas está a gestão baseada em um Learning Management System (LMS) local ou há um jeito melhor de gerenciamento? Enfim, uma premissa importante de se pensar é que ou embarcamos no trem da computação em nuvem ou seremos atropelados por ele. Portanto, todos a bordo!


2.Estabelecimento da função de Arquiteto de Dados
Cada vez mais, departamentos de TI estão contando com um arquiteto de dados dedicado para ajudá-los com a sua estratégia geral de gerenciamento de informações. Alinhado à equipe corporativa de gerenciamento de dados, que é responsável pela armazenagem das informações e soluções de exploração de dados, o papel deste profissional é liderar uma estratégia de dados mais ampla, sem ter que responder diretamente às necessidades de entrega diárias ao negócio.

O arquiteto de dados avalia todos os sistemas e, a partir disso, cria uma visão unificada para que a equipe de gerenciamento de dados possa executar as ações. O estabelecimento de padrões e governança de dados e o trabalho próximo ao centro de competências em integração (Integration Competency Center – ICC) são responsabilidades-chave deste profissional.


3.Definição de diretrizes claras e padrões para selecionar a solução de nuvem mais adequada
Muitas vezes, os grupos de negócios não conhecem ou não têm a especialização necessária para entender o que deve ser incluído em um contrato do ponto de vista de tecnologia. A terminologia sobre autorizações de acesso privilegiadas a dados e a retenção dos mesmos é vaga ou indefinida.

Uma maneira pela qual a área de TI pode mostrar valor para o negócio é envolver-se na negociação de contratos de computação em nuvem junto aos fornecedores, especialmente porque os benefícios desta tecnologia (autosserviço, custos operacionais ante a despesas de capital, computação elástica etc) têm impacto nos resultados financeiros. Uma boa prática é o desenvolvimento, pela equipe de TI, de um questionário simples para fornecedores, definindo o que pode ser esperado a partir do ponto de vista da tecnologia.

Por isso, é importante trabalhar com o jurídico para esboçar um conjunto padrão de perguntas antes de entrar em um acordo. Isso pode ajudar a proteger os ativos corporativos, evitando potenciais problemas que poderiam ter sido considerados nas discussões iniciais. Esta abordagem colaborativa é bem recebida pelos executivos das empresas, causando até mesmo uma surpresa.


4.Não começar do zero
Os times de TI têm conhecimento em conectividade e integração de dados, além de expertise em negociação. Eles sabem o que precisa estar presente para que uma aplicação ou plataforma esteja pronta para o uso dentro do ambiente corporativo. Portanto, conversar com seus colegas, elaborando checklists, é o ponto inicial para que não se comece um projeto do zero.

No que diz respeito à nuvem, avalie as suas melhores práticas de gerenciamento de aplicações fazendo perguntas como: O que você espera em termos de tempo de envio dos dados para a nuvem e disponibilidade? E quando você precisa acessar seus dados? Eles precisam de backup, criptografia? Quais são as regras e permissões para o gerenciamento de contas?


5.Não esperar para integrar
Para muitos departamentos de TI, a segurança na nuvem deixou de ser uma objeção e tornou-se uma série de perguntas como: Quem pode acessar seus dados na nuvem? Desenvolvedores, funcionários e administradores de sistema podem acessá-los? De onde eles podem ser acessados e quais são as opções que temos no mercado? No entanto, o que continua a impressionar é como a integração de dados, um tema consideravelmente importante, ainda é relegado a um estágio futuro no projeto ou planejamento geral.


As companhias querem uma nuvem, não um silo, certo? Porém, muitas nuvens estão se transformando em apenas mais um conjunto de silos, com os quais as empresas precisam lidar. Assim, assegurar-se de que está sendo desenvolvida uma estratégia de nuvem que reconheça a importância da integração de dados e da qualidade deles, desde o início, é essencial.

Não fazer esta ação pode resultar em sistemas desconectados, com dados fragmentados e múltiplas versões da verdade. A integração de dados em Cloud Computing emerge como o acesso e a estrada para aplicações e plataformas em nuvem. Há uma grande variedade de abordagens e soluções disponíveis no mercado atualmente, portanto, a única questão que permanece é: O que você está esperando para embarcar?


* Delmar Assis é arquiteto de soluções da Informatica Corporation

Sunday, 22 May 2011

Compensação de cheques fica mais rápida

Os comerciantes não são os únicos que estão com os olhos voltados para os cheques. O Conselho Monetário Nacional (CMN) e a Federação Brasileira de Bancos (Febraban) começaram a adotar uma série de mudanças para tornar essa forma de pagamento mais segura e rápida. A partir desta semana, o prazo de compensação do documento cairá de até quatro dias para, no máximo, dois. No caso de valores acima de R$ 300, será de apenas um.

O diretor adjunto de Serviços da Febraban, Walter Tadeu de Faria, diz que, mesmo com a popularidade dos cartões, ainda são emitidos, em média, 90 milhões de cheques por mês:

— Esse meio de pagamento vai se manter. O cheque costuma ser o primeiro instrumento de pagamento do cliente que abriu sua conta bancária, pois está mais familiarizado com ele do que com os cartões.

Veja o que mudou:

Nova compensação - Os bancos, agora, não precisam mais enviar os cheques para outras instituições, bastando apenas passar as informações por meio dos códigos de barras e das imagems dos cheques. Assim, foi reduzido o tempo para compensação.

Contrato claro - O Conselho Monetário Nacional (CMN) determinou que, até o fim de abril de 2012, os bancos terão que incluir nos contratos já existentes os critérios que utilizam para dar ou não folhas de cheques aos clientes. No caso de novos contratos, a exigência já está em vigor.

Boletim - Os bancos estão se adaptando para começarem a cobrar o boletim de ocorrência policial para sustações ou revogações por furto, roubo ou extravio de folhas de cheque em branco, como já ocorre nas sustações de cheques emitidos. O boletim deverá ser apresentado em até dois dias.

Data no cheque - Os bancos têm até o fim de outubro para começarem a imprimir a data de confecção do cheque nas folhas. Isso evitará que folhas muito antigas continuem sendo utilizadas.

Limpando o nome - Os bancos devem fornecer ao cliente cópias dos cheques que não foram pagos por falta de fundos. A instituição terá que informar ainda o endereço do último beneficiário. Isso vai facilitar o resgate do cheque, permitindo limpar o nome.

Saturday, 21 May 2011

Tire suas dúvidas sobre internet móvel e redes de telefonia 4G

O crescimento do acesso à internet por banda larga tem sido impulsionado nos últimos anos pelas redes de dados via telefonia celular. Os sistemas de terceira geração, ou 3G, devem se tornar até o fim de 2010 a maior porta de acesso à rede para os brasileiros, de acordo com pesquisa da consultoria Yankee Group. Mas o 3G, que permite uma velocidade máxima de até 10Mbps, já é considerado "antiquado" para quem vive na Suécia, primeiro país do mundo a adotar a tecnologia LTE, considerada o primeiro passo para a chamada quarta geração, ou 4G.

A rede adotada pela operadora TeliaSonera promete downloads sem fio a velocidades de até 100Mbps, ou até 10 vezes o limite da tecnologia 3G. Em operação em stocolmo e também em Oslo, capital da Noruega, o sistema da TeliaSonera só pode ser acessado, por enquanto, por modens acoplados a notebooks ou computadores, já que não há telefones celulares nativos compatíveis com a tecnologia.

Para quem mora no Brasil, no entanto, o 4G ainda é um sonho distante. Os leilões das faixas de espectro compatíveis com a tecnologia LTE devem começar entre 2010 e 2011. A adoção dos sistemas de quarta geração, nas previsões mais otimistas, começam daqui a pelo menos três anos.

Tire suas dúvidas sobre redes móveis de internet:

>>> O que é o 4G?

É o nome dado a um conjunto de tecnologias e padrões de transmissão de dados e voz por redes de telefonia celular. Dois sistemas já em funcionamento atualmente utilizam o título- embora sem cumprirem todos os padrões exigidos pelo ITU(International Telecommunication Union, órgão responsável pela padronização das telecomunicações): o WiMax, desenvolvido pela Intel, e o LTE (Long Term Evolution).

O padrão LTE é o que mais se aproxima das exigências do ITU. Modens com padrão LTE são capazes de transmitir dados em até 100 Mbps. Além disso, o aparelho transmite voz via IP, eliminando a necessidade de sistemas de conexão telefônica: não importa se você está navegando na internet ou conversando pelo telefone, tudo vai passar pela internet.

>>> E o 3G, deixará de funcionar?

Não. A grande vantagem da tecnologia LTE é que ela mantém a compatibilidade com os aparelhos antigos. Portanto, não é necessário trocar de celular quando a rede entrar em funcionamento. A velocidade, no entanto, será limitada pela capacidade do aparelho móvel.

>>> Com o 4G, veremos a chamada 'realidade aumentada' se transformar em realidade?

A maior banda para transmissão de dados será muito bem recebida pelos desenvolvedores de aplicativos de realidade aumentada. Porém, não é necessário esperar a chegada da rede 4G. Já há aplicativos que utilizam o celular como uma 'lente' que adiciona informações ao mundo real.

Donos de celulares Android, sistema operacional do Google, ou de iPhones, por exemplo, já podem testar diversos programas de realidade aumentada.

Cidades da Copa terão prioridade para receber tecnologia 4G, diz governo

As 12 cidades-sede são Belo Horizonte, Brasília, Cuiabá, Curitiba, Fortaleza, Manaus, Natal, Porto Alegre, Recife, Rio de Janeiro, Salvador e São Paulo.

O 4G é o nome dado a um conjunto de tecnologias e padrões de transmissão de dados e voz por redes de telefonia celular. Alcança velocidades de cerca de 100 megabit (Mbps), uma taxa de transmissão cerca de dez vezes maior do que a máxima obtida atualmente pelo 3G, que é de 7 Mbps - o que as prestadoras vendem como plano de 1 Mbps.

“O 4G é para o celular, mas pode ser para o modem também. Além da velocidade com mobilidade, a vantagem do 4G é que, como é banda larga sem fio, permite chegar a lugares que não chegam atualmente, como a periferia”, afirmou Oliveira.

Segundo o diretor do ministério, as empresas implantarão a rede 4G gradualmente, mas  a meta é ter em 2014 todas as cidades-sede da Copa cobertas pelo sistema. "Pelo menos as cidades-sede. Pode ser que em outros municípios também, mas a principal preocupação é com as cidades-sede da Copa ”, disse Artur Oliveira.

No começo da semana, o ministro das Comunicações, Paulo Bernardo, disse que a empresa sul-coreana SK Telecom pretende disputar o leilão de frequências que introduzirá o 4G no Brasil.

Para ingressar no mercado brasileiro, a companhia aproveitou a viagem do ministro ao país para pedir o enquadramento da faixa de 2,1 gigahertz (Ghz) ao leilão de 2,5 Ghz da Anatel (Agência Nacional de Telecomunicações).

Ao G1, Bernardo disse que a Anatel deve lançar o edital de licitação da faixa de 2,5 Ghz ainda neste ano. “Temos condição de trazer a tecnologia para o Brasil até porque a Anatel já está preparando as licitações. Tem uma frequência que pode ser leiloada ainda neste ano e no final de 2012, começo de 2013, já estamos implantando o 4G no Brasil", afirmou.

A SK Telecom pode acirrar ainda mais a competição no mercado brasileiro entre as grandes prestadoras em operação no Brasil (Vivo, Claro, Tim, Oi e Nextel). A empresa pode fazer uso de tecnologias de 4G, como a o LTE (Long Term Evolution), para ofertar serviços de internet de alta velocidade nos terminais móveis.

Modens com padrão LTE são capazes de transmitir dados em até 100 Mbps. Além disso, o aparelho transmite voz via IP, eliminando a necessidade de sistemas de conexão telefônica: não importa se você está navegando na internet ou conversando pelo telefone, tudo vai passar pela internet.

Tablets
O ministro Paulo Bernardo afirmou que a medida provisória que possibilitará a desoneração dos tablets ainda não foi publicada porque depende da assinatura da presidente Dilma Rousseff. Com a redução de impostos para a produção do produto, os preços dos tablets devem cair em 36%.

O secretário de Telecomunicações do ministério, Nelson Fujimoto, afirmou que a MP deverá sair na próxima semana porque ainda aguarda portaria conjunta do Ministério da Ciência e Tecnologia e Ministério do Desenvolvimento. A MP reduz de 9,25% para zero a alíquota do PIS/Cofins nos tablets.

Na última quinta-feira, o secretário da Receita Federal, Carlos Alberto Barreto, disse que o governo federal deve incluir os tablets na chamada "Lei do Bem", que dá incentivos tributários para fabricação e venda de equipamentos eletrônicos no Brasil.

Segundo Barreto,os estudos para incluir os tablets na lei já foram concluídos e encaminhados ao Ministério da Fazenda. Se aprovada, a medida vai isentar os produtos da incidência do PIS/Cofins.

Padrão 4G pode ajudar países em desenvolvimento, afirma IEEE

O padrão de conexão à internet sem fio 4G pode ser a solução para o desenvolvimento das áreas rurais de economias emergentes, de acordo com avaliação do Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE), responsável pela padronização tecnológica das telecomunicações mundiais. O instituto afirma que o padrão IEEE 806.16m, ou 4G, é a melhor opção para ampliar o acesso à internet em áreas afastadas dos centros urbanos, onde não há como levar as conexões por cabo.


Para o IEEE, fornecer acesso à internet em alta velocidade à população pode aumentar os níveis de educação nos países, além de aumentar o fluxo de informações aos profissionais rurais.

O órgão também acredita que o padrão 4G será responsável pelos avanços do atendimento médico remoto, ou telemedicina, "extremamente necessários no campo".

Na opinião do professor Shuzo Kato, inventor do chip TDMA para celulares e membro do IEEE, ao elevar a velocidade da internet em banda larga sem fio para picos entre 100 Mbps e 1 Gbps, pode-se acabar com a "barreira digital" que divide as zonas rurais e urbanas.

Ele cita, ainda, os movimentos de mercado, explicando que a 4G pode operar em outras faixas de frequência, o que abre espaço para outros provedores de serviço, aumentando a abrangência e tornando mais baratas as conexões em banda larga sem fio.


Segundo dados do Fundo de População das Nações Unidas, mais de 3 bilhões de pessoas, ou metade da população mundial, moram em áreas rurais. No entanto, como elas não chegam a formar zonas de densidade populacional, a chegada de serviços de internet e telecomunicações fica muito cara e desinteressante para as operadoras.


O IEEE cita também o instituto Wireless Intelligence, cujos dados apontam que os países em desenvolvimento representam quase 80% de todas as conexões móveis do mundo. Apenas China e Índia respondem por 30% dessas conexões, o que equivale a 1,5 bilhão de pessoas.

Thursday, 19 May 2011

EUA querem estratégia de cibersegurança mundial

O governo do presidente americano, Barack Obama, propôs no início da semana a criação de normas internacionais de segurança para o uso de redes de computadores com sanções para os países e organizações que fracassarem em adotá-las.

Embora os oficiais do governo não tenham citado nenhum país específico, ao anunciar a estratégia, vários oficiais disseram reservadamente esperar que a iniciativa incentive a China e a Rússia a permitir mais liberdade na internet, além de controlar melhor o roubo de propriedade intelectual e promulgar leis mais rigorosas para proteger a privacidade dos usuários de redes de computadores.

"O esforço para aumentar a confiança no ciberespaço é algo que deve ser levado a todas as capitais do mundo", disse o secretário de Comércio, Gary Locke, que em breve irá assumir o cargo de embaixador americano na China.

A estratégia pede que oficiais do Departamento de Estado, Pentágono, Departamento de Justiça, Departamento do Comércio e Departamento de Segurança Nacional trabalhem com os semelhantes de todo o mundo para chegar a normas destinadas a prevenir roubo de informações privadas e garantir a liberdade na internet. Um folheto divulgado pela Casa Branca também prometeu que os Estados Unidos irão reagir a qualquer tentativa de hacking "como a qualquer outra ameaça ao nosso país".

O procurador-geral Eric H. Holder Jr. chamou a medida de "uma estratégia histórica", acrescentando que "as ameaças do século 21 que agora enfrentamos tanto para nossa segurança nacional e internacional, realmente não têm fronteiras".

Na semana passada, o governo americano lançou o componente interno da sua nova estratégia de segurança para redes de computadores, aumentando e esclarecendo as penas para crimes de informática, além de dar a agências de segurança interna um mandato claro para a proteção das redes do governo. Esse esforço foi destinado a inverter a crescente percepção de que as penas para ataques a computadores corporativos, governamentais e pessoais são relativamente pequenas.

Além de dar nova autoridade ao Departamento de Segurança Interna sobre os sistemas informáticos federais, a legislação exige que a agência trabalhe com empresas de energia, fornecedores de água e de instituições financeiras para classificar as ameaças mais graves e encontrar maneiras de enfrentá-las. A lei também exige que cada negócio tenha um auditor independente para avaliar os seus planos comerciais e, no caso das empresas financeiras, relate esses planos para a Comissão de Segurança e Câmbio.

*Por Helene Cooper

Wednesday, 18 May 2011

Analista de mídias sociais, planejamento digital, analista de mídia on-line... Essas e outras são as novas profissões que surgiram com o “boom” das redes sociais

Arquiteto da informação, analista de mídias sociais, gestor de planejamento estratégico digital, analista de mídia on-line, analista de anúncios em links patrocinados, blogger profissional, consultor em ecommerce, de analista de SEO (otimização de mecanismos de busca, em português). Para quem não sabe, essas são as novas profissões que surgiram com o “boom” das redes sociais e a descoberta delas como um forte meio de divulgação para as empresas.

A remuneração destes profissionais varia de R$ 1,5 mil a R$ 5 mil. Apesar de não haver ainda nenhum estudo mostrando o quanto cresceu em postos de trabalho, uma pesquisa recente do Ibope mostra que o número de brasileiros com acesso à internet em casa ou no trabalho aumentou 13,9% ao final do primeiro trimestre deste ano ante o mesmo intervalo no ano passado. Atingindo assim 43,2 milhões de usuários.

Ainda de acordo com o levantamento, a maior parte do crescimento é decorrente da maior presença de computadores com acesso à web em domicílios, cujo aumento foi de 20,7% no terceiro mês do ano, enquanto o número de computadores conectados no local de trabalho subiu 14% sobre igual período de 2010.

Para Sérgio Sgobbi, diretor de educação e Recurso Humanos da Associação Brasileira de Empresas de Tecnologia da Informação e Comunicação (Brasscom), o amadorismo inicial nas redes sociais deu lugar a um meio de negócio extremamente profissional.

“As empresas descobriram as redes como um meio de divulgar conteúdos relacionados as suas marcas. Profissionais de muitas carreiras estão migrando para esse novo nicho. Jornalistas, publicitários, psicólogos, marqueteiros e sociólogos, entre outros”, avalia Sgobbi.

Celso Fortes, consultor em comunicação digital e novas mídias e diretor de criação da agência digital Novos Elementos, empresa que desenvolve projetos para internet e cuida da vida on-line de várias personalidades e profissionais, afirma que antes de ser profissional, tem que ser usuário.

“Existem profissionais que estão querendo “aprender” a mexer nas redes sociais, mas existe uma nova geração, que vive de redes sociais. Faz parte do DNA deles. Além disso, é só gostar de pessoas e buscar entender as diferenças entre elas”, opina.


Criador do site Innevitável e autor do projeto Sucesso em Poucas Palavras, Fortes fala ainda que este profissional deve analisar e entender o comportamento do consumidor dos produtos e serviços da empresa, buscando informações para serem não só usadas no presente, como no futuro dessa empresa.

“Tem que estabelecer um relacionamento mais próximo entre cliente e empresa e em uma possível crise atuar na solução mais rápida do problema”, informa.

Já para o coordenador da Graduação em Sistemas de Informação e TI da Faculdade Moraes Júnior – Mackenzie Rio, Dércio Santiago, as novas profissões fomentadas pelo desenvolvimento da internet são mais ligadas à comunicação que à tecnologia. Ele diz que o profissional adequado a este trabalho deve conhecer as ferramentas de comunicação e, principalmente, dominar as técnicas tradicionais de redação.

“Os profissionais de jornalismo, de marketing e de design são as principais peças neste quebra-cabeças. Estes se diferenciam dos profissionais ‘da antiga’ porque a internet permite que se fale com uma infinidade de ‘tribos’, cada uma com seu vocabulário e cultura específicos. Antigamente a comunicação tinha que ter muito conteúdo para atender aos interesses das diversas comunidades que dela disporiam”, explica.

Ele destaca que atualmente cada grupo recebe só o que lhe interessa. Exigindo uma comunicação curta, mas com o conteúdo que interessa àquele grupo de leitores.

“De outro modo, a tentativa de comunicação será rejeitada. Isto exige conhecimento de sociologia, antropologia, psicologia, marketing, etc. Além de domínio da língua e da linguagem do grupo com quem se quer estabelecer comunicação”, relata.
Andrei Scheiner, coordenador do curso de Comunicação Social do Centro Universitário Plínio Leite (Unipli), controlado pela Anhanguera Educacional, informa que existem poucos cursos de graduação específicos. Ele diz que Publicidade, Jornalismo, Estudos de Mídia, Ciência da Computação são alguns cursos que tratam o tema com mais destaque.

“O mais comum é encontrarmos cursos tecnólogos que contenham disciplinas focadas nas discussões sobre internet e motivem os alunos a fazerem trabalhos de conclusão de curso que envolvam estratégia e criação de ações que foquem as mídias sociais. Já alguns programas de pós-graduação focam diretamente a área do marketing digital”.

Carolina Siper, gestora em planejamento estratégico digital da agência Worn Marketing de Guerrilha, é formada em Publicidade e entrou na empresa no cargo de diretora de arte, mas a sua paixão pelo mundo digital a levou para o planejamente digital.


“Como sou viciada em internet e vivia dando dicas  de vários canais de divulgação da empresa na web, acabei passando a analista de mídias sociais e depois promovida ao atual cargo”, lembra a jovem.

Luiz Méliga, de 21 anos, apesar de estar no primeiro período da faculdade de Publicidade, já atua como analista de redes sociais na Mark Assessoria, da qual é responsável por atualizar conteúdos de duas empresas.

“Todo dia posto notícias de uma empresa de produtos odontológicos e de uma clínica de estética”, conta. (colaborou Simone Schetino)

O FLUMINENSE

Com preço mais baixo Apple pode ser líder em smartphone, diz consultoria

Apesar de registrar uma contínua queda em market share no mundo, no Brasil a Nokia ainda é a marca líder entre os usuários de smartphones. De acordo com pesquisa relizada pela consultoria CVA Solutions, a fabricante finlandesa tem um market share de 31,9%, muito atrás da Apple que tem 5,9%.

Entretanto Sandro Cimatti, sócio diretor da CVA Solutions, acredita que se a Apple melhorar o custo dos seus aparelhos no Brasil ela poderá ultrapassar a atual líder.


A pesquisa trabalha com um índice que mede o desempenho das empresas em diversos itens e o compara com seus concorrentes. No quesito “benefícios”, a Apple se saiu muito melhor que seus concorrentes, enquanto que no quesito “custo” a fabricante do iPod se saiu muito pior que a concorrência. Já a Nokia, tanto no quesito “custo” quanto no “benefícios” está posicionada em paridade com a concorrência.


Esse possível avanço no market share da Apple fica visível quando a pesquisa investiga a intenção de troca de aparelho. A fabricante do iPod poderá pular de 5,9% para um market share de 15,2%, de acordo com a intenção dos consumidores em trocar de aparelho. A Nokia, por outro lado, sairia de 31,9% para 27%.

“Isso com a imagem de careira que ela tem. Se a Apple melhorar seus preços ao consumidor no Brasil e estruturar melhor seu serviço de assistência técnica, poderá crescer muito e se tornar líder em smartphones”, afirma Cimatti.


A Apple também se sai bem em relação aos seus usuários que não trocariam de fabricante, com um índice de retenção de 76,7%. A Nokia também obteve uma boa pontuação no quesito, 55%

Compliance nas empresas

Desde o século passado as sociedades buscam estabelecer mecanismos para controlar suas atividades e assegurar a estabilidade de seus mercados. Em determinados momentos da história é possível notar que as sociedades capitalistas identificaram a necessidade de implantar regras visando à correção dos problemas naturais decorrentes do capitalismo, de modo a fortalecer a sua economia e desenvolver a credibilidade ao mercado de capitais.
Foi a partir dessas regras que surgiu o termo “compliance”. Esta palavra da língua inglesa advém do verbo “to comply”, que significa cumprir, satisfazer, adequar.


Neste contexto, a mencionada palavra é basicamente o atendimento de leis, normas e códigos organizacionais e de conduta, assim como aos princípios da boa governança corporativa.


Importante mencionar que as regras legais de compliance nasceram de casos recentes práticos, como, por exemplo, a concordata da empresa americana Worldcom e a falência da empresa Enron. Daí, podemos extrair a importância da adoção de compliance para mitigar os riscos legais e de negócios.


No Brasil, as regras de compliance iniciaram-se no âmbito do sistema financeiro, onde as instituições financeiras obrigaram-se a adotar procedimentos rigorosos de controle interno e de gerenciamento de riscos, em consonância com as normas internacionais.


As novas exigências do mercado, decorrentes do crescimento e da profissionalização, têm obrigado muitas organizações a repensar seus modelos de gestão.


Atualmente, as empresas, independentemente de estarem ou não sujeitas a determinado órgão regulador em razão das atividades que desenvolvem, têm buscado adotar mecanismos de controle e fiscalização do cumprimento de normas legais e regras de conduta para garantir a adequada administração de riscos inerentes ás suas atividades, e, assim, minimizam tais riscos e por conseqüência evitam perdas financeiras ou problemas ligados à sua imagem e reputação.


No entanto, destaco que a compliance deve ir além da simples adoção e verificação da conformidade e adequação às leis; deve buscar inserir na cultura das organizações a consciência de que cada indivíduo e colaborador necessitam conhecer, desenvolver e aplicar impedindo problemas e desconformidades que possam gerar diversas conseqüências negativas.


Pode-se entender que as regras de compliance, para serem efetivas e cumprirem seus objetivos, devem estar inseridas no dia-a-dia das empresas, inclusive culturalmente, de forma que busquem monitorar todas as áreas da empresa e assegurar o cumprimento de seus processos internos.

Por meio da leitura de artigos e notícias ligadas ao mundo empresarial é possível perceber que as empresas em compliance possuem maior acesso ao crédito, pois apresentam menores riscos e, por outro lado, conseguem aumentar a sua atuação no mercado em que estão inseridas porque transmitem aos seus clientes e potenciais clientes maior segurança no cumprimento de suas obrigações.


Aproximadamente entre 70 e 80% dos investidores estão dispostos a pagar um valor maior no mercado de ações pelas organizações que praticam Governança Corporativa; isso acontece no mundo inteiro independentemente do porte das empresas.


Compliance é verdadeiramente um dos pilares em que se apóia a Governança Corporativa e sua adoção demonstra claramente o comprometimento das empresas em fortalecer os seus negócios, através de bases sólidas e sustentáveis. Pense nisto!


Edson Vieira Souza, sócio-diretor financeiro da Aliz Inteligência Sustentável

Tuesday, 17 May 2011

Vítima de fraude bancária deve receber mais de R$ 9 mil de indenização do Itaú

A juíza Dilara Pedreira Guerreiro de Brito, da 1ª Vara Cível do Fórum Clóvis Beviláqua, condenou o Banco Itaú a pagar indenização de R$ 9.514,80 ao cliente P.C.M.C.B., vítima de fraude bancária. A decisão foi publicada no Diário da Justiça Eletrônico dessa segunda-feira (09/05).


Conforme os autos (nº 3797859.2006.8.06.0001/0), em maio de 2006, o cliente retirou extrato bancário e identificou movimentações irregulares em sua conta. Segundo ele, foram feitos indevidamente um empréstimo no valor de R$ 1.953,30, um saque de R$ 304,60 e um pagamento de título bancário na quantia de R$ 2.257,90.
P.C.M.C.B., cliente da instituição financeira há 14 anos, disse não ter realizado nenhuma dessas transações, nem ter emprestado o cartão do banco para ninguém. Ele procurou o Itaú para solucionar o problema, mas não obteve êxito.

O consumidor, que ainda teve o nome inscrito em órgãos de proteção ao crédito, ajuizou ação requerendo indenização por danos morais e materiais de R$ 112.850,00. O Itaú contestou, alegando não ter responsabilidade pelo ocorrido. Segundo a empresa, P.C.M.C.B. acessou uma página falsa do banco na Internet e forneceu os dados, que foram utilizados por fraudadores.


Na sentença, a juíza explicou que o fato de haver falhas na prestação do serviço, por si só, já enseja a responsabilidade civil da instituição. “Era dever do Itaú prestar serviço adequado e seguro a seus clientes, investindo parte de seu lucro em sistemas de segurança, a fim de evitar fraude”, declarou a magistrada.

Banco Central altera regras para devolução de cheques

O Banco Central publicou nesta segunda-feira (16) circular que altera as regras para devolução de cheques. A partir de agora, os bancos só poderão incluir nomes de clientes no Cadastro Nacional de Emitentes de Cheques sem Fundo (CCF) como último recurso, após checados todos os outros motivos para a devolução.

Caso haja outro problema, como erro de preenchimento ou assinatura incorreta, essa deve ser a razão alegada para a devolução. Isso porque, na segunda apresentação de um cheque devolvido por motivo de falta de fundos ou de conta encerrada, o cliente tem seu nome incluído no CCF.

Segundo o BC, a ideia da medida - que vem na esteira da Resolução 3972, que regulamentou alterações no uso do cheque este ano - é levar instituições financeiras a olhar mais atentamente o preenchimento de cheques recebidos para compensação.

Com isso, busca-se evitar situações como a de um cidadão que teve seu talão roubado, cheques emitidos com assinaturas falsas, mas com as devoluções alegando falta de fundos, "sujando" o nome do cidadão no CCF.

Entre as mudanças, agora também é possível o rastreamento do cheque devolvido por quem teve o nome incluído no CCF, sem ter mais que esperar até cinco anos para sair, automaticamente, do cadastro.

A circular do BC publicada nesta segunda-feira também prevê ainda um prazo maior para que agências bancárias situadas em locais mais distantes dos grandes centros urbanos passem a adotar a truncagem - sistema que permitirá compensação de cheques por imagem.

A truncagem, que possibilitará a compensação do cheque com a troca de imagem digitalizada, sem o envio do documento físico ao serviço de compensação (prestado pelo Banco do Brasil), começa a valer a partir da próxima sexta-feira, dia 20.

No caso das agências de localidades distantes, porém, o BC deu prazo de até 60 dias para que adotem a truncagem. Isso significa que vai demorar dois meses para que a compensação de cheques desses locais, que chega a levar até uma semana, possa cair para o prazo nacional, de um e dois dias.

O sistema não vai alterar os prazos praticados hoje para o desbloqueio de recursos dos cheques de um dia, para valores acima de R$ 300, e de dois dias, para cheques inferiores a esse valor.

(Com informações da Agência Estado e do Valor Online)

Wednesday, 11 May 2011

Lista de prioridades da Anatel e do Minicom tem 10 itens

As diretrizes definidas conjuntamente entre Anatel e Ministério das Comunicações referentes à lista de regulamentos prioritários para serem votados pelo conselho da agência tem 10 itens. Já é uma considerável simplificação da agenda em relação aos 59 documentos normativos que estão no conselho da agência aguardando deliberação. A relação começou a ser definida na reunião entre o ministro e os conselheiros da Anatel no dia 2 de maio.

Posteriormente, o conselho da Anatel submeteu ao Minicom algumas sugestões e recebeu a orientação final na forma de um ofício assinado por Paulo Bernardo no dia 5, após a reunião dos conselheiros que tratou da agenda mínima. Os itens que constam no ofício são, segundo Paulo Bernardo, parte do Plano Geral de Metas de Universalização III, que visa, em suas próprias palavras, "anunciar medidas que acelerem a massificação da banda larga no Brasil".

Segundo ele, "são medidas não somente para garantir que o serviço chegue a toda a população com preço justo e boa qualidade, mas também outras que propiciarão um salto em termos de capacidade da banda larga do país". Para Paulo Bernardo, a votação dos itens visa "atuar sobre gargalos diagnosticados na massificação da bnda larga e aumento da capacidade de acesso".

No entanto, vale destacar que nem todos os itens previstos para votação têm relação direta com a qualidade ou com a quantidade de acessos banda larga, o que mostra que o governo está usando a lista de prioridades da Anatel ou para acelerar decisões políticas (como, por exemplo, a redução da VC e da VU-M ou o regulamento de incentivo a pesquisa e inovação em telecomunicações) ou para ter o que barganhar com as empresas.

A íntegra do ofício do ministro Paulo Bernardo à Anatel está disponível na homepage do site TELETIME. Confira a relação de prioridades acertadas entre Minicom e agência:


1) Aprovação do Plano Geral de Metas de Universalização;

2) Aprovação do Plano Geral de Metas de Competição, incluindo medidas de unbundling e compartilhamento de infraestrutura;

3) Revisão do Regulamento de Exploração Industrial de Linha Dedicada e revisão da tabela de referência;

 
4) Licitação das faixas de 2,5 GHz e 3,5 GHz;

5) Revisão do Regulamento de TV a Cabo;


6) revisão do regulamento que define a composição do VC a fim de reduzir a VUM;


7) Aprovação do Regulamento de Gestão de Qualidade dos Serviços de Comunicação Multimídia;


8) Aprovação do Regulamento de Resolução de Conflitos;

9) Aprovaçãodo Regulamento de Incentivo à Pesquisa, Desenvolvimento e Inovação em Telecomunicações;

10) Revisão do regulamento que fixa o PPDESS para ajustes no valor de outorga de SCM para operadores de menor cobertura geográfica.

A lista não segue necessariamente uma relação de prioridade. Algumas diretrizes já haviam sido passadas pelo governo, como a licitação das faixas de frequência (o edital de 3,5 GHz sai em consulta esta semana) e a revisão da Regulamentação de TV a Cabo.

Este item, contudo, ainda deve demorar para ter efeito, pois uma vez aprovada a consulta pública e editado o regulamento (o que deve levar cerca de 2 meses) ainda é necessário aguardar 30 dias para decurso do prazo de manifestação do Conselho de Comunicação Social do Congresso (que está inativo) e, só então, dar início ao processo de abertura do mercado.


Entre as medidas que podem ter efeito mais imediato são a revisão da tabela de EILD e a revisão da tabela de referências e a agilização da resolução de conflitos.


O Plano Geral de Metas de Competição é outra medida que só terá efeitos a médio prazo, pois a consulta promete ser longa e bastante polêmica. A redução do valor das licenças de SCM para R$ 400 por meio da adoção do PPDESS também deve ser uma medida sentida rapidamente.

Operadoras veem compartilhamento como saída para ampliar acesso

A baixa penetração dos serviços de telecomunicações nas pequenas cidades brasileiras – que não despertam interesse das operadoras por questões econômicas – é um dos principais problemas do país quando o assunto é inclusão digital. E, embora o Plano Nacional de Banda Larga (PNBL) pretenda resolver esse problema, as operadoras fazem coro em prol do compartilhamento de rede.


O presidente da TIM Brasil, Luca Luciani, disse que nos grandes centros urbanos a competição já está garantida e nessas regiões as empresas realizam investimentos. Já em cidades pequenas ou nem tão interessantes economicamente, a realidade é totalmente diferente, diz o executivo. Segundo ele, nessas áreas, ou não há rede e, por isso, não há competição, ou há apenas a rede da concessionária e, sem uma clara regulamentação para o compartilhamento de infraestrutura, não tem competição. Na opinião dele, a única solução para superar essa barreira é o compartilhamento de rede.


“As empresas deveriam compartilhar os investimentos em infraestrutura, por meio da realização de consórcios, para a construção de ‘rodovias digitais’ e assim garantir o acesso a pessoas que ainda não o tem. Isso representa uma saída importante para a inclusão digital e desenvolvimento do País”, frisa o executivo.


Para Luciani, o planejamento conjunto para construção de backbones e backhauls para ligação de cidades como Manaus, Belém, Fortaleza e Boa Vista já está sendo finalizado e o desenvolvimento real do projeto já está próximo de acontecer.

“A ideia é cada operadora construir uma parte da rede e depois trocarmos capacidade de rede, como já acontece hoje. A construção das redes deve começar ainda neste ano e se estender até 2012”, diz o executivo. Além da TIM, segundo Luciani, fazem parte da iniciativa a Embratel, Telefônica e GVT. Recentemente, a Oi também mostrou interesse em participar dos consórcios.


Aposta no PPP
O vice-presidente de regulamentação da Oi, Paulo Mattos, corrobora com a ideia de compartilhamento de investimentos, mas vai além. “A palavra-chave é parceria, não apenas entre as operadoras, mas também com a participação do governo, para a construção de uma infraestrutura que atenda a estas regiões distantes”, observa ele. Mattos ressalta que as parcerias são fundamentais para garantir um ciclo virtuoso de investimento em redes de telecomunicações no país.

O executivo constata que a penetração da banda larga segue a distribuição de renda e do índice de desenvolvimento humano (IDH) no Brasil. “Dos 4,9 mil municípios com rede da Oi, apenas 800 têm IDH superior à média do seu estado. Nos 4,1 mil restantes temos oferta, mas não temos demanda. Não será possível aprofundar a penetração sem subsídios públicos”, enfatiza.


Plano de metas
Embora favorável à competição e a qualquer mecanismo que surja para dar mais transparência ao mercado, o executivo da Oi aproveitou a oportunidade para criticar o Plano Geral de Metas de Competição (PGMC), em elaboração na Anatel. Para ele, é preciso que o PGMC revise a definição de poder de mercado significativo (PMS) de acordo com padrões internacionais, em que cidades em que há três redes, por exemplo, já seja considerada com competição e assim a concessionária deixe de ser considerada automaticamente como detentora de PMS.


“Além disso, tabelamento de preços praticados e determinação de investimentos compulsórios geram desincentivo a investimentos”, reclama, se referindo ainda a possíveis determinações do PGMC.
“O problema é que até então a Anatel regulamentava serviços, e com o novo PGMC ela vai passar a regulamentar empresas.

É algo novo e que causa desconforto, mas confiamos muito que trará medidas para regular efetiva e positivamente o mercado”, complementa o diretor de assuntos regulatórios da TIM, Carlos Eduardo Franco.


Os executivos participaram do encontro promovido pela associação EUBrasil no primeiro dia do Business IT South America, evento organizado pela Deustche Messe em parceria com a Converge Comunicações e a Fiergs.

Monday, 9 May 2011

Provedoras de banda larga podem oferecer só 10 porcento da velocidade contratada. E você assinou este contrato...

O serviço de banda larga no Brasil é um dos mais caros em todo o mundo. A qualidade do produto, porém, nem de longe é proporcional ao cobrado pelas operadoras. Além dos altos valores, as companhias não costumam entregar a velocidade de internet ofertada – e o pior é que elas estão amparadas pela Lei!

Você pode nem ter reparado mas, no contrato que assinou, existe uma cláusula que garante à empresa fornecedora de banda larga o direito de oferecer apenas 10% da velocidade contrata sem sofrer represálias. Mas por que isso acontece? Na verdade, esta é uma forma das empresas de internet otimizarem a rede. Se elas tivessem que garantir 100% da velocidade o tempo inteiro, a infraestrutura implementada teria que ser bem mais robusta.

Da forma como é hoje, em horários de pico a velocidade cai. E elas também utilizam uma outra arma, o IP Dinâmico. Para entender esse lance de Ips: o IP, ou internet protocol, é como se fosse um endereço. É um número que identifica o seu computador quando ele se conecta à rede. Agora, imagine o seguinte: você acaba de desconectar a sua banda larga normal aí na sua casa. Em seguida, seu vizinho conecta a internet dele.

Em vez da empresa ter 2 IPs, um pra cada um de de vocês, ela vai pegar o seu e transferir para o vizinho. Para a empresa é benéfico porque ela não precisa criar um IP para cada usuário. Por isso a infraestrutura é mais simples, barata, e consegue atender um maior número de usuários.

Mas existe uma outra forma de disponibilizar internet que é utilizada, principalmente, pelo mercado corporativo. Grandes empresas normalmente optam pelo Link Dedicado. As empresas que fornecem internet dessa forma garantem velocidade integral e sem quedas durante 99,9% do tempo. Para isso, é preciso muita infraestrutura.

"O Link Dedicado é um serviço de internet, como o próprio nome diz, ele é dedicado. Então ele é um serviço diferenciado, um acesso dedicado de internet para a empresa. Ou seja, há uma preocupação muito grande na estabilidade desse link, na velocidade desse link, é realmente um serviço que pretende ter uma estabilidade muito grande para empresas que necessitam de internet o tempo todo, 24 horas, e um suporte diferenciado para esse tipo de serviço", diz Matheus Spagnuolo, analista de produtos da Telium.

É... mas oferecer essa estrutura custa bastante. Alguns planos podem chegar a custar 3 mil reais por “apenas” 2 mega de velocidade. A questão é que, nesse caso, a velocidade é real. E o IP é só daquela empresa, não fica trocando de mãos – o que permite fazer várias coisas que nós, usuários domésticos, teríamos dificuldade...

"Para um cliente empresarial um IP fixo é importante, às vezes ele aplicações como servidores web ou banco de dados que rodam na rede dele e que precisam ser sempre acessados pelo mesmo IP

Thursday, 5 May 2011

GSMA apresenta estudo sobre impacto futuro da faixa de 700 MHz na América Latina

A GSM Association (GSMA) apresentou nesta quarta-feira, 4, mais detalhes do estudo sobre os impactos da destinação futura da faixa de 700 MHz na América Latina, já antecipado por este noticiário. A consultoria TAS, contratada para esse projeto, analisou dois cenários:

1) o espectro é destinado para serviços móveis;

2) o espectro é mantido sob o controle dos radiodifusores. A conclusão é de que os benefícios econômicos e sociais seriam maiores se a faixa de 700 MHz for destinada às operadoras móveis.
De acordo com o documento, a destinação desse espectro para telefonia móvel movimentaria US$ 13,81 bilhões ao longo de oitos anos na economia de cinco mercados latino-americanos somados: Brasil, México, Argentina, Colômbia e Peru.

Esse montante leva em conta a receita com os leilões de licenças, o Capex necessário para a construção das redes e o Opex adicional ao longo de oito anos. Em contrapartida, se mantido o espectro com radiodifusores, o valor seria de US$ 2,8 bilhões, pelos cálculos dos consultores. Cabe ressaltar que neste cenário não foi considerada qualquer arrecadação com leilões de espectro.


Em termos sociais, o estudo estima que a faixa de 700 MHz para telefonia móvel geraria 8.470 empregos diretos e indiretos nos cinco países, enquanto que com as TVs seriam apenas 4.170. O percentual da população coberta com banda larga móvel aumentaria em média cinco pontos percentuais na América Latina, no cenário favorável às teles.


Brasil


Analisando-se apenas o mercado brasileiro, um eventual leilão de 700 MHz para SMP renderia entre US$ 4,23 bilhões e US$ 6,34 bilhões aos cofres púlbicos, dependendo de quanto fosse licitado, 60 ou 90 MHz. A construção da rede, que necessitaria de 14,59 mil novas ERBs, demandaria investimentos de US$ 1,44 bilhão.

Somando-se os contratos de serviços operacionais e comerciais, a destinação de 700 MHz para o SMP movimentaria entre US$ 6,72 bilhões e US$ 8,83 bilhões no País ao longo de oito anos. Se mantido com as TVs, esse espectro geraria US$ 1,49 bilhão, calcula o estudo.

Wednesday, 4 May 2011

Teste de Novo Layout do Blog

 

 

Testando novo Layouy do Blog Tecnologia da Informação.

Espero que todos os leitores e leitoras desse Blog, que vem sempre se preocupando com a informação, com a atulização gostem desse novo visual.

Quaisquer dúvidas ou esclarecimentos, enviem seus comentários.

Atenciosamente,

Luís Fernando

Tuesday, 3 May 2011

Light vai instalar 20 mil medidores inteligentes

A Elster anunciou nesta segunda-feira, 2, que a Light, concessionária privada de energia elétrica no estado do Rio de Janeiro, adquiriu a solução de infraestrutura de medição avançada denominada AMI (Advanced Metering Infrastructure) para ampliar a distribuição de energia elétrica para clientes que ainda não contam com acesso ao fornecimento.


Até julho, a Light implantará 20 mil unidades da solução de medição Garnet, que consiste em uma única unidade com 12 slots para smart meters convencionais para residências, relés de conexão e desconexão, terminais de entrada e saída, modem gateway GPRS e recursos de rede e comunicação por radiofrequência.


O sistema será integrado com as redes residenciais para oferecer mais controle e novas opções de serviço ao consumidor. Cada Garnet conta com recursos de segurança sofisticados, envoltos em uma caixa de aço inoxidável para resistir às intempéries ao ser instalado nos postes de luz ou em gabinete seguro, como condomínios.
"A Elster já era um fornecedor tradicional da Light para soluções confiáveis e de alta qualidade.

Acreditamos que o novo projeto AMI com a solução Garnet e a nossa confiança na Elster nos permitirá aumentar a qualidade e precisão dos dados coletados, oferecendo benefícios ao atendimento, desde a conexão/desconexão remota até a administração da rede residencial. Essa parceria faz parte das ações da Light para modernização das redes e combate às perdas", afirma José Geraldo de Souza Pereira, superintendente da Light.


"É uma grande satisfação ampliar nossa parceria de longa data com a Light, que continua demonstrando sua liderança ao oferecer os benefícios de AMI aos seus clientes, ainda mais nessa época em que o Brasil está modernizando sua rede elétrica para acompanhar o crescimento da população e se preparando para eventos globais como as Olimpíadas e a Copa do Mundo", diz Frank Hyldmar, vice-presidente executivo da Elster Electricity International.

A eterna luta da área de Tecnologia da Informação

É cada vez mais disseminada a idéia de que a TI pode trazer grandes ganhos para as empresas. Nunca a TI esteve tão presente em nossas vidas. É simplesmente inimaginável pensar no cotidiano profissional ou pessoal sem se valer de computadores (sejam desktops ou notebooks), smartphones, tablets, todos devidamente conectados à Web. Com isto alguém pode imaginar que a tarefa dos profissionais de TI seja mais simples ou mesmo mais fácil do que foi no passado: ledo engano!

As expectativas quanto aos resultados a serem obtidos pelas aplicações de TI cresceram pelo menos na mesma velocidade dos avanços tecnológicos. E mais: os usuários hoje têm um conhecimento muito maior da TI, até porque ela esta presente na vida pessoal de cada um deles.


Isto implica em que a área de TI (e é claro, seus gestores) tenha que ficar constantemente alerta e pronta para agir. Para ilustrar isto, vamos recorrer novamente a analogias com fatos históricos e com a estratégia militar.


Há mais que 2000 anos, Aníbal (um brilhante general cartaginês) e seu bem exército treinado (do qual a maioria das pessoas lembra pelo uso dos elefantes) impingiram aos romanos uma imensa derrota na batalha de Canas, que até hoje é estudada nas academias militares. Não somente venceu como praticamente eliminou o exército inimigo.

Depois disto, acreditava Aníbal, aos romanos somente restaria a rendição nos seus termos, pois a sua esmagadora vitória faria com que sua vontade de lutar de Roma desaparecesse e também que os aliados dos romanos passassem para o seu lado.


Para a surpresa de Aníbal, os romanos redobraram seus esforços, recrutaram novos soldados e se imbuíram de imensa determinação, além de demonstrar a seus aliados que não deixariam de fazer nenhum sacrifício para vencer e honrar suas alianças. Com isto, seus aliados continuaram fiéis e Roma reconstruiu seu exército, sob novas lideranças e remodelando sua forma de lutar.

Alguns anos depois, sob o comando de Cipião, um general não somente inteligente e capaz, mas também estudioso das táticas e estratégias de Aníbal, o exército romano derrotou o grande comandante cartaginês em uma batalha decisiva, vencendo a guerra para Roma.


Que lição tirar disto? É óbvio que não existe (e nem deve existir) guerra entre a área de TI e seus usuários, mas a luta está sempre presente. Por vezes, ao final de uma longa e difícil implantação de uma nova aplicação de TI, na qual os prazos e os custos estiveram dentro do previsto e todo o processo tenha transcorrido bem, a área de TI acredita que a luta terminou. O reconhecimento geral de um projeto bem sucedido faria com que a área de TI fosse tratada de outra forma e somente restaria aos usuários aplaudir tanta eficiência. Isto pode acontecer durante certo tempo, mas a luta não pára e se os executivos da TI não permanecerem atentos, o sucesso pode ser rapidamente esquecido.

Novas exigências inevitavelmente surgirão e a área de TI deve estar apta para dar respostas eficientes e eficazes.


Portanto, não basta vencer uma batalha, por mais grandiosa que seja a vitória: é preciso focar em vencer a guerra. Em outras palavras, não é suficiente ser eficiente na implantação de um projeto de uma aplicação de TI: é necessária uma postura de constante busca por eficácia no uso da TI, em alinhamento com a estratégia de negócios da empresa. E como as exigências têm sido cada vez maiores, os profissionais de TI têm que estar de prontidão para dar sua contribuição para o sucesso da empresa.

Esta postura da área de TI, não somente atendendo às demandas dos usuários, mas também apresentando alternativas para a estratégia da empresa, se mantida ao longo do tempo, é que permite uma boa relação com os executivos do negócio e a obtenção de resultados que possam de fato fazer a diferença para vencer a cada vez mais acirrada competição no mercado.


Prof.Dr. Fernando José Barbin Laurindo é professor da Fundação Vanzolini (www.vanzolini.org.br), entidade gerida por professores do Departamento de Engenharia de Produção POLI/USP. Email: fjblau@usp.br

Monday, 2 May 2011

Governo quer regulamentar posse e transmissão de dados pessoais

O governo federal organizou um debate para um anteprojeto de lei que busca regulamentar como as empresas armazenam e transferem dados de usuários. A discussão se torna atual na medida em que dados pessoais estão envolvidos em escândalos como o do vazamento da empresa de marketing Epsilon e da Playstation Network, da Sony. Mas legislar sobre a questão não é tão simples.

Se você tem alguma dúvida sobre segurança da informação (antivírus, invasões, cibercrime, roubo de dados, etc), vá até o fim da reportagem e utilize a seção de comentários. A coluna responde perguntas deixadas por leitores todas as quartas-feiras.

O debate ocorreu no site Cultura Digital desde o dia 30 de novembro de 2010 e agora, com as opiniões de internautas sobre os conceitos e artigos, será reexaminado para criar um novo projeto que, então, deverá ser encaminhado ao Congresso.

“Nosso objetivo é regulamentar, não restringir”, afirma Juliana Pereira, diretora do departamento de proteção e defesa do consumidor, do Ministério da Justiça, que é responsável pelo projeto. Segundo ela, o projeto foi fundamentado em dois pilares: que o titular da informação (o cidadão) deve saber que sua informação será coletada e transmitida e que deve dar o consentimento, e que tal consentimento só é possível de for conhecida a finalidade do registro.

Dessa forma, o projeto busca esclarecer a forma que empresas devem informar o cidadão a respeito do registro, e dá ao cidadão ferramentas legais para que ele saiba o que está sendo armazenado e possa controlar como essa informação será usada. Seria uma extensão dos conceitos já existentes na Constituição Federal, que afirma o direito à privacidade, e no Código de Defesa do Consumidor, que controla a relação da informação da empresa com o consumidor.

“É muito comum no Brasil hoje as pessoas procurarem uma loja de varejo, por exemplo, e alguém falar assim ‘você pode preencher esse formulário, por favor? É para mandarmos ofertas para o senhor’, mas esses são dados pessoais e nesse formulário precisa estar escrito, exatamente, qual a finalidade dele”, explica Pereira. “Assim, é possível responsabilizar cada banco de dados sobre o uso da informação”.

Informação na “sociedade de consumo”
Para Juliana Pereira, regulamentar o armazenamento dos dados pessoais é importante porque a informação se tornou uma importante ferramenta de trabalho das empresas, que precisam criar perfis para descobrir como criar e vender seus produtos. “Não há ilegalidade nisso, é da natureza da sociedade de consumo, mas entendemos que é preciso regulamentar o uso dessa informação”.

“O cidadão não é apenas um indivíduo, ele é também um perfil”, explica.

Outra preocupação do Ministério da Justiça é evitar que a informação armazenada não seja base para situações de discriminação, quando algo que se sabe sobre a pessoa altere a disponibilidade ou o fornecimento de algum produto ou serviço.

'Casos específicos' e o valor da informação
Pereira não tinha uma resposta para quais seriam as obrigações da Sony caso o roubo de dados tivesse acontecido no Brasil. “É um roubo, é um caso específico, o projeto não entra nesse nível de detalhamento”, disse.

Esses casos específicos, segundo ela, iriam ser definidos por uma autoridade regulamentadora, que é previsto no projeto. Somente essa autoridade iria determinar a segurança e procedimentos do armazenamento do banco de dados.

O advogado especializado em tecnologia, Omar Kaminski, observa que já existe uma legislação penal para proteger os bancos de dados do governo federal, que é específica inclusive na forma como os servidores públicos interagem com o serviço: não podem divulgar dados sem justa causa ou alterar dados de forma incorreta ou que comprometa o serviço.

“A má utilização dos dados pessoais pode resultar em spam e até em crimes de falsa identidade e estelionato, para citar os mais comuns. Ter uma legislação preventiva e disciplinadora é desejável, porém podemos esbarrar na dificuldade de fiscalização do cumprimento, por exemplo”, afirma o advogado. “O ideal é prevenir da melhor forma para que situações como a da Sony não se repitam”, opina.

O advogado acredita que para muitas situações a legislação existente já é suficiente, e que é preciso discutir as questões de punição – cível ou penal. Para se chegar lá, é preciso descobrir qual a indenização – ou prisão – justa e eficaz. Essa discussão, no entanto, esbarra em algumas perguntas cujas respostas são difíceis de encontrar.

“Ainda não amadurecemos o suficiente em termos legais para quantificar o valor da informação”, alerta Kaminski.

*Altieres Rohr é especialista em segurança de computadores e, nesta coluna, vai responder dúvidas, explicar conceitos e dar dicas e esclarecimentos sobre antivírus, firewalls, crimes virtuais, proteção de dados e outros. Ele criou e edita o Linha Defensiva, site e fórum de segurança que oferece um serviço gratuito de remoção de pragas digitais, entre outras atividades. Na coluna “Segurança digital”, o especialista também vai tirar dúvidas deixadas pelos leitores na seção de comentários. Acompanhe também o Twitter da coluna, na página http://twitter.com/g1seguranca

Nota do autor: Estamos realmente sendo Monitorados pela Rede? Tal decisão será uma censura na Rede?