Monday, 28 March 2011
Empresas reclamam de preços altos e má qualidade da banda larga no Brasil
O mercado corporativo não está satisfeito com o atendimento às suas necessidades de tráfego de dados pelas operadoras de telecomunicações no Brasil. Em seminário promovido pela Firjan, no Rio de Janeiro, nesta segunda-feira, 28, executivos de diversos setores se queixaram dos preços altos e da má qualidade do serviço de banda larga no País.
"Em 45% do tempo em que minha rede ficou indisponível no ano passado o motivo foi a queda do link", relatou o CIO da Michelin, Marcelo Ramires. Ele reclama que a contingência, prevista em contrato, muitas vezes é feita com rede da mesma operadora que provê o link principal. "Você acha que tem uma rede redundante, mas quando precisa, descobre que o roteador é o mesmo ou a última milha é a mesma", descreveu. "Já houve caso em que troquei de operadora no papel, mas, na prática, continuei sendo atendido pela mesma rede", completou.
O CIO da L'Oreal, Sergio Hart, que é também presidente do grupo de CIOs do Rio de Janeiro, fez coro às críticas, lembrando que há problemas de qualificação da mão de obra no setor de telecomunicações e de má configuração de processos de gestão. Além disso, ele se queixou da pouca disponibilidade de sinal das redes móveis, o que prejudica seus vendedores nas ruas. "Isso significa negócios que deixam de ser fechados", disse Hart.
Pesquisa
Durante o evento, a Firjan divulgou uma pesquisa sobre o custo da banda larga corporativa no Brasil. De acordo com o levantamento feito pela entidade, o preço médio do acesso de 1 Mbps em redes DSL é de R$ 70,85 no País. O estado mais caro é o Amapá: R$ 429,90, com a ressalva de que lá nem havia oferta de 1 Mbps em DSL quando a pesquisa foi realizada, sendo este o preço para 600 Kbps via satélite. O estado mais barato é Alagoas: R$ 57,40. No acesso de 1 Mbps via redes 3G, o preço médio é de R$ 109,82.
Para conexão corporativa a 10 Mbps em redes DSL, o preço médio no Brasil é de R$ 105,23. Os estados mais caros são Roraima, Mato Grosso, Mato Grosso do Sul, Tocantins e Acre: R$ 192,40. O mais barato é Rio Grande do Norte: R$ 84,90. Amapá e Amazonas não foram incluídos por não terem essa oferta.
Planos de banda larga corporativa de 100 Mbps, por sua vez, existem em apenas 13 dos 27 estados do País, a um preço médio de R$ 529. Neste caso há poucas variações entre as ofertas mais caras e mais baratas.
O estudo da Firjan comparou os preços médios praticados no Brasil, em dólares, com aqueles de outros países. Embora haja casos em que os preços internacionais são bem mais altos, como na Rússia e na China, os valores cobrados no País ainda são relativamente caros. Na Argentina, na Colômbia, na Índia, na Venezuela e no México, por exemplo, o preço médio por 1 Mbps está mais barato que aqui.
Operadoras
Os presidentes da Oi e da Telefônica, Luiz Eduardo Falco e Antônio Carlos Valente, respectivamente, compareceram ao seminário e se defenderam das críticas. "O cliente tem sempre razão. Mas é importante lembrar que as redes de dados baratearam muito nos últimos dez anos. É só comparar o que se comprava de banda com US$ 200 dez anos atrás", disse Falco.
O presidente da Oi aproveitou para atualizar os dados da pesquisa da Firjan, lembrando que o backbone da empresa chegou recentemente a Manaus e a Macapá, barateando os preços. Sobre comparações internacionais a respeito de cobertura da rede de banda larga, o executivo disse: "a Coreia do Sul tem o tamanho de Pernambuco. E o Japão, que investe há dez anos em fibra óptica, cobre apenas 30% dos domicílios com essa tecnologia".
Valente recapitulou os números de FTTH (fiber to the home) da concessionária de São Paulo. Sua rede de fibra passa hoje por pouco menos de 500 mil domicílios e têm 15 mil deles conectados. Sobre banda larga em geral, ele disse que a penetração em São Paulo é de 70% entre os domicílios que possuem computador.
Tributação
Como não poderia deixar de ser, a alta carga tributária do setor de telecomunicações foi apontada como a principal culpada pelos altos preços dos serviços no País, tanto pelas operadoras quanto pelas empresas consumidoras. Entretanto, o presidente da Anatel, embaixador Ronaldo Sardenberg, argumentou que agora não seria o melhor momento para pleitear a redução dos tributos para telecom, justamente quando o governo procura conter gastos. "Apresentar uma proposta hoje seria condená-la ao fracasso. Não seria politicamente viável", disse.
Contratar cloud de data centers distantes pode ser bom negócio
Há apenas um ano, o CIO e diretor da empresa de seguros japonesa AIG Edison, Tohru Futami, sabia que sua companhia precisava atualizar algumas aplicações núcleo, uma vez que o sistema, de sete anos de idade, já não permitia que a retaguarda e os times de vendas compartilhassem informações em um tempo adequado. Além disso, muitos dos processos da companhia ainda eram baseados em papel.
Segundo Futami, as principais opções da empresa eram reescrever todas as aplicações existentes ou tentar uma migração para a nuvem e rodar software hospedado. A planificação do tempo e do custo necessário para cada um levou o executivo à nuvem.
Pelos cálculos, a reescrita dos sistemas da companhia de seguros poderia levar cerca de 30 meses. Por outro lado, uma migração para a plataforma de nuvem da Salesforce.com iria durar três vezes menos. A pesquisa interna também indicou que o custo da tecnologia em nuvem seria reduzido a um terço em relação a qualquer outra solução.
Futami disse, no entanto, que o requisito chave no projeto era a rapidez. “A meta era aprimorar o atendimento ao consumidor e dependíamos da melhoria do sistema”, diz.
A decisão de realizar a mudança para a nuvem com uma oferta de CRM na modalidade de software como serviço (SaaS) foi complicada no início, porque enquanto a empresa está sediada em Tokyo, o data center da Salesforce está há mais de 8 mil quilômetros distante, na costa oeste dos Estados Unidos. A distância levantou preocupações em relação à latência de rede, além de criar dúvidas a respeito de questões legais e regulatórias, envolvendo o projeto.
Mesmo com esses pontos, a AIG Edison decidiu pela migração. O trabalho de transferir as aplicações chave para os computadores da Salesforce.com em São Francisco (EUA), começou em janeiro. Hoje, os sistemas estão disponíveis para uso dos milhões de clientes da empresa de seguros, milhões de prospectos, 3 mil funcionários e 15 mil corretores de seguros e revendedores. As aplicações hospedadas lidam com tarefas complexas, como geração de cotações e simulações para levantamento de necessidades de cobertura.
Para auxiliar no processo, Futami contou com uma consultoria de São Francisco, a Appirio, responsável por configurar a plataforma de nuvem e realizar as configurações no sistema. O objetivo era buscar fornecer “quase o mesmo tempo de resposta” que a AIG Edison obteria nos sistemas convencionais. Um passo fundamental na contratação de servidores distantes.
Latência não é barreira
A latência de rede, principalmente para serviços complexos prestados em todo o mundo, pode realmente ser um problema se deixar o tempo de resposta para o usuário muito lento. Ela não pode simplesmente ser eliminada, pois a lei da física sempre prevalece. Mas isso não impede que muitas empresas adotem ofertas no formato SaaS.
Um exemplo é a FleetMatics, companhia baseada em Dublin, que fornece serviço hospedado de monitoramento de rotas via GPS. Sua base de clientes nos Estados Unidos está crescendo consistentemente, razão pela qual conseguiu financiamento de 68 milhões de dólares recentemente. E tudo isso foi conquistado com apenas um data center na Irlanda.
Os clientes da FleetMatics podem observar o movimento dos veículos em grandes telas planas à medida que os dados do GPS sofrem atualização contínua. O CTO da companhia Peter Mitchell disse que os clientes não manifestaram percepção negativa quanto ao tempo de resposta a partir da Irlanda. Mas quando a companhia abriu um data center em Denver, no final de 2010, “houve a percepção de que o sistema estava extremamente rápido”, avalia.
Mitchell acredita que fornecedores de SaaS na Europa não devem ter nenhum problema para prestar serviços para os Estados Unidos. A abertura do data center em Denver foi parte de um esforço para desenvolver um modelo de recuperação de desastres global, além de permitir expansão de serviços. E para continuar prestando serviços com grande distância, a companhia começou a testar tempos de latência da Índia para Dublin e para os Estados Unidos.
A AIG Edison percebeu que a latência dos Estados Unidos para o Japão varia de acordo com a velocidade da conexão e a quantidade de dados. Na média, leva 132 milissegundos para enviar e receber 32KB de dados, de acordo com a Appirio. Em contraste, se o data center estivesse no Japão, a transação levaria 52 milissegundos, quase três vezes menos.
Com todo o ambiente de cliente da AIG Edison, que inclui desktops virtuais para cada funcionário da equipe de vendas, o tempo de resposta total varia de 300 a 400 milissegundos, ou um terço de segundo, ainda de acordo com a Appirio.
Essa taxa de latência, ainda dentro do aceitável na concepção da AIG Edison, veio após otimização e configurações adequadas. Entre medidas que a companhia tomou para melhorar a situação, está a transferência de lotes de dados para o data center da Salesforce, onde a maioria das informações estão guardadas, reduzindo transferência de dados. Além disso, em vez de realizar quatro consultas sequenciais, o sistema foi otimizado para realizá-las simultaneamente. E o tempo de resposta ainda pode melhorar, pois uma grande quantidade de dados ainda está armazenada no mainframe da companhia, em Tókio.
“Se a aplicação é escrita de uma forma a minimizar o número de viagens que a informação realiza entre o banco de dados e o destino, a latência realmente pode se tornar uma questão menor”, afirma o CTO da Runware, Andy Poulter. A Runware é uma empresa de serviços de cloud e SaaS, incluindo teste de software online, com data centers na Suécia e em Miami, servindo uma clientela no mundo inteiro.
Para a AIG Edison, a decisão de trabalhar com um fornecedor na nuvem em outro país levantou ainda preocupações com segurança, que também tiveram de ser trabalhadas. Mas os executivos da empresa foram convencidos pela consultoria e pela Salesforce de que a estrutura de segurança física e lógica do serviço em nuvem provavelmente é melhor do que sistemas mantidos pela própria AIG.
Expansão
A decisão tomada por Futami, da AIG Edison, está se tornando cada vez mais comum. De acordo com estudos da IDC, as receitas de computação em nuvem pública nos Estados Unidos devem crescer 24% em 2011, atingindo 17,6 bilhões de dólares.
O analista da divisão de consultoria da PricewaterhouseCoopers, Phil Garland, ressalta que a definição sobre o fato de a latência ser ou não problemática depende das expectativas do usuário, nível de tolerância e do que funciona para os negócios. “É questão de avaliar se os níveis de serviço são aceitáveis para determinada empresa, pois não há jeito de evitar uma queda de desempenho ao aumentar a distância do data Center”, afirma Garland.
Para o analista, cada caso deve ser analisado separadamente, uma vez que não há regras no que diz respeito à aceitação da latência por parte do usuário.
Depende da função dos dados e de quão crítica é a informação.
No entanto, Garland diz que há formas de contornar o problema, melhorando o desempenho na camada de software. “Um cliente bem projetado pode reduzir a maioria dos problemas que costuma surgir em ambientes de alta latência, pelo menos até certo ponto.”
Mas clientes reticentes, ao ponto de se recusarem a contratar um data center distante, não deixarão de existir. É por isso que, no último trimestre de 2010, a Salesforce.com anunciou planos de abrir um data center no Japão no segundo semestre de 2011. Os negócios da companhia crescem muito no país e um porta voz da companhia, Joseph Schmidt, diz que a medida beneficiará clientes com “velocidade e paz de espírito de ter os dados próximos de casa”.
Por Patrick Thibodeau, da Computerworld EUA
A cada dia, 35 mil pessoas passaram a usar banda larga nos últimos 12 meses
Os acessos em banda larga fixa e móvel das prestadoras de serviços de telecomunicações cresceram 52% nos últimos 12 meses e chegaram a 37,4 milhões em fevereiro, revelou, nesta terça-feira (22) a Telebrasil (Associação Brasileira de Telecomunicações).
Segundo a associação, foram ativados 12,8 milhões de novos acessos no período, o que significa que, a cada dia, 35 mil novos clientes se conectaram à internet em alta velocidade no Brasil.
O crescimento dos acessos por meio do SMP (Serviço Móvel Pessoal), que inclui modems de conexão à internet e terminais de terceira geração (3G), como os smartphones, chegou a 81,9% no período, passando de 12,9 milhões em fevereiro de 2010 para 23,6 milhões no fim do mês passado.
Já os acessos por meio do Serviço de Comunicação Multimídia – banda larga fixa – passaram de 11,6 milhões para 13,8 milhões no mesmo período, o que representa um crescimento de 18,8%. Nos últimos 12 meses, houve uma maior penetração de smartphones para acesso móvel à internet e uma maior oferta de acessos fixos de alta velocidade, em planos com bandas superiores a 10 megabits por segundo.
Nos dois primeiros meses de 2011, além da ativação com fibras óticas da banda larga em Manaus, mais de 120 municípios passaram a ter acesso à internet em banda larga móvel, que já chega a pequenas cidades, com menos de 20 mil habitantes, como Passo do Camaragibe (AL), Candeias do Jamari (RO) e Itapiranga (AM).
Ainda de acordo com o relatório, 67% dos domicílios brasileiros que têm computador estavam conectados em banda larga no fim de 2010.
Os números incluem conexões em banda larga fixa e as oferecidas por meio de modems de acesso à internet móvel. Os dados para 2010 foram projetados a partir da Pesquisa TIC Domicílios 2009, realizada pelo Cetic.br (Centro de Estudos sobre as Tecnologias da Informação e da Comunicação).
Segundo o relatório da Telebrasil, a ampliação do acesso da sociedade brasileira à internet em alta velocidade tem tido crescimento vertiginoso, com padrões de qualidade reconhecidos internacionalmente.
Um levantamento recente feito pela consultoria independente Ookla, entidade americana que avalia padrões de qualidade e velocidade dos serviços de banda larga para instituições em todo o mundo, e aponta que o índice de qualidade de serviço da banda larga residencial brasileira é de 82,93, à frente de países como África do Sul, Austrália, Estados Unidos, Portugal e Espanha.
Friday, 25 March 2011
Ministério Público acusa Anatel de violar legislação do setor de TV a cabo
Uma representação feita pelo Ministério Público junto ao Tribunal de Contas da União (TCU) está colocando em xeque todas as recentes mudanças promovidas pela Anatel em relação às regras que regem o mercado de TV a cabo e MMDS. O documento, assinado pelo procurador-geral Lucas Rocha Furtado, acusa a Anatel de ter violado a legislação do setor e ignorado as determinações feitas pelo TCU nos últimos oito anos para a emissão das licenças de televisão por assinatura. Defendendo a tese de que as normas editadas pela agência (e nem mesmo a Lei Geral de Telecomunicações - LGT) se sobrepõe ao que define a Lei do Cabo (8.977/95), o procurador conclui que a reforma do planejamento de cabo põe em risco o mercado e não pode ser levada adiante.
Segundo Furtado, as ações da Anatel constituem "flagrante violação à ordem jurídica e desrespeito às deliberações do TCU". Um dos pontos mais criticados é o preço que a agência pretende cobrar pelas novas outorgas, de apenas R$ 9 mil. "Outra importante questão decidida pelo Tribunal, e ao que parece foi ignorada pela agência, diz respeito à aprovação do preço da outorga com base no custo administrativo de expedição do ato (R$ 9.000,00)", afirma o procurador.
No entendimento do Ministério Público, a Anatel deveria estabelecer um método de cálculo que realmente represente o valor da licença que está sendo liberada, não podendo simplesmente tomar como base o mero custo administrativo de expedição da outorga. "A fixação de um preço mínimo é fundamental para o Poder Público determinar o valor 'justo' pelo negócio que está concedendo. Para tanto, é imprescindível que o valor mínimo a ser apurado pelo direito de exploração do serviço esteja o mais próximo do real valor de mercado, evitando, com isso, potenciais perdas de receita para o Erário", complementa. A íntegra da representação formulada pelo procurador-geral Lucas Furtado pode ser conferida na homepage da TELETIME News.
Repercussões
Segundo fontes, a representação do Ministério Público recebeu boa acolhida da Secretaria de Fiscalização de Desestatização (Sefid), órgão técnico do TCU que já vinha analisando as mudanças promovidas pela Anatel no ano passado em dois processos em curso no tribunal. A expectativa é que o órgão emita uma cautelar ainda nesta sexta-feira, 25, suspendendo todas as ações da agência envolvendo o planejamento de cabo.
Oficialmente, o TCU confirma apenas a existência dos dois processos em instrução, evitando antecipar a adoção de qualquer medida contra a Anatel.
A representação do procurador-geral tem como base, segundo o documento, denúncias pelo Sindicato Nacional das Empresas Operadoras de Sistemas de Televisão por Assinatura (Seta), mas outras reclamações teriam contribuído na conclusão do representante do Ministério Público.
Desde que a Anatel anunciou publicamente sua intenção de abrir o mercado de TV a cabo, retirando o limite de emissão de outorgas, empresas do setor e parlamentares têm protestado contra a iniciativa. O ex-senador Antônio Carlos Magalhães Júnior (DEM/BA) foi um dos que pediu formalmente que o TCU se manifestasse sobre o assunto, inconformado com as mudanças anunciadas pela agência. A reclamação do senador deu origem a um dos dois processos em tramitação no órgão de controle.
Wednesday, 23 March 2011
Encontro na Bahia discutirá cobrança de ICMS no comércio eletrônico
O debate em torno do comércio eletrônico ultrapassa os limites geográficos do Nordeste e começa a ganhar a adesão de outros Estados. Na segunda-feira, 21 os secretários de Fazenda do Nordeste, Amazonas, Espírito Santo, Mato Grosso e Rio Grande do Sul farão uma reunião em Salvador, Bahia.
Na pauta as próximas ações conjuntas que deverão ser colocadas em prática para o equacionamento do problema da arrecadação do ICMS que incide sobre as mercadorias comercializadas pela internet.
Os Estados querem cobrar o imposto no mercado de destino da mercadoria. Atualmente, o recolhimento é feito na origem, independentemente da origem do comprador.
A alegação é de que essa sistemática prejudica principalmente os Estados do nordestinos. A Bahia, por exemplo, diz que no ano passado deixou de arrecadar o equivalente a R$ 85 milhões em ICMS com as vendas pela internet.
Por causa disso, foi feita uma alteração no Regulamento do ICMS da Bahia, inserindo a modalidade de vendas pela internet ou telemarketing, no grupo da antecipação tributária do ICMS.
Com essa medida, que entrou em vigor no dia 1º de fevereiro deste ano, no momento de realização da operação, o remetente do produto passou a recolher o imposto a favor do estado da Bahia, o equivalente a 10% do valor das mercadorias.
Além disso, os produtos devem estar acompanhados da Guia Nacional de Recolhimento (GNRE), o que evita a demora na entrega e possíveis transtornos aos destinatários.
O que se pretende no encontro de Salvador é buscar uma solução contemplando todas as unidades da federação que estão deixando de arrecadar o ICMS nas vendas de comércio eletrônico.
Tuesday, 22 March 2011
Sem ICMS, banda larga pode cair a R$ 29, diz Paulo Bernardo
A desoneração do Imposto sobre Circulação de Mercadorias e Serviços (ICMS) poderia reduzir o preço da assinatura mensal de acesso à internet banda larga para R$ 29, conforme afirmação do ministro das Comunicações, Paulo Bernardo. O Programa Nacional de Banda Larga (PNBL), do governo federal, considera como banda larga velocidades de transmissão de dados a partir de 512 Kbps.
Paulo Bernardo defendeu a retirada do tributo sobre os serviços de internet rápida durante audiência pública na Comissão de Ciência, Tecnologia, Inovação, Comunicação e Informática (CCT) do Senado. “Isso não resultará em queda de arrecadação dos estados”, frisou o ministro, explicando que, como o acesso à banda larga ainda é restrito, não é significativa a atual arrecadação de ICMS sobre esse serviço.
Na audiência de quarta-feira, Paulo Bernardo também anunciou que o Ministério das Comunicações criará, dentro de alguns dias, a Secretaria de Inclusão Digital. Segundo informações do Blog do Planalto, a nova secretaria será diretamente ligada ao ministro, ao lado das secretarias de Telecomunicações e de Serviços de Comunicação Eletrônica.
De acordo com Bernardo, a Secretaria de Inclusão Digital, que conta com a aprovação da presidente Dilma Rousseff e do Ministério do Planejamento, Orçamento e Gestão, será criada para dar apoio, reforço e celeridade ao PNBL.
Na audiência da CCT do Senado, o ministro das Comunicações apresentou aos senadores as ações prioritárias de sua pasta. Além do PNBL, foram discutidos os programas de inclusão digital; o avanço do processo de implantação da TV digital; estudos para definir o marco regulatório das comunicações eletrônicas; e os planos de instalação de infraestrutura de comunicação para a Copa do Mundo de 2014 e as Olimpíadas de 2016.
No debate com os senadores, o ministro foi cobrado quanto às metas de universalização dos serviços de telefonia, internet e radiodifusão. Senadores do Norte e do Nordeste também cobraram de Bernardo medidas para resolver dificuldades de acesso à internet enfrentadas nessas regiões.
De acordo com a Agência Senado, os senadores do Norte e Nordeste têm razões para suas cobranças, pois a Pesquisa Nacional por Amostra de Domicílios (Pnad) de 2008, feita pelo Instituto Brasileiro de Geografia e Estatística (IBGE), mostrou que dez estados brasileiros das duas regiões tinham menos de 11% de residências com internet rápida.
Fust
Também na audiência de quarta-feira, diversos senadores cobraram a aplicação de recursos do Fundo de Universalização dos Serviços de Telecomunicações (Fust) na instalação de infraestrutura necessária à ampliação da banda larga no país. Os parlamentares criticaram o fato de os recursos do fundo, instituído em 2000, serem sistematicamente contingenciados pelo governo.
“Nos últimos dez anos, os recursos arrecadados pelo Fust e pelo Fistel têm sido apropriados pelo Tesouro. O montante já supera os R$ 30 bilhões. Se investido em banda larga, esse montante permitiria ao Brasil contar com uma das melhores condições de infraestrutura nesta área”, disse o senador Cyro Miranda (PSDB-GO).
Em resposta, o ministro Paulo Bernardo explicou que a legislação que regulamenta o uso dos recursos do Fust prevê critérios que inviabilizam a maior parte dos projetos apresentados. Para solucionar o problema, ele lembrou que está para ser votado na Câmara dos Deputados projeto que modifica tais critérios, facilitando o uso dos recursos. A Agência Senado apurou que se trata do PL 1.481/2007.
Fonte: Agência Senado, Agência Brasil e Blog do Planalto
Data: 18 de março de 2011
Telebrás entra com pedido formal para ficar com faixa de 450 MHz
Na última terça-feira, 15, o Ministério das Comunicações recebeu um pedido da Telebrás que pode provocar mudanças no caminho escolhido pela Anatel para resolver o dilema das metas rurais no novo Plano Geral de Metas de Universalização (PGMU III). A estatal encaminhou um ofício para o Minicom formalizando interesse na faixa de 450 MHz para a "promoção da inclusão digital em áreas remotas, rurais e de baixa densidade populacional".
"Informo a Vossa Excelência o interesse da Telebrás em fazer uso dessas radiofrequências, por ser um instrumento necessário para a ampliação do acesso aos serviços de telecomunicações pela população brasileira, em especial, a residente em áreas rurais", declara Antônio Carlos Alff, presidente interino da estatal, no ofício destinado ao ministro das Comunicações, Paulo Bernardo. Há tempos, comenta-se que a Telebrás teria interesse na faixa de 450 MHz, mas esta é a primeira vez que a estatal apresenta formalmente um pedido ao governo para ficar com a radiofrequência.
O pedido não havia sido apresentado até agora porque, em princípio, a tendência do governo era deixar a faixa com a estatal, já que o pequeno bloco de radiofrequência disponível (7 MHz + 7 MHz) só permite que uma única empresa atue em cada região. O pensamento era de que, se não há como fazer concorrência, o mais sensato seria consignar o uso da faixa à estatal.
Esse plano mudou depois das negociações feitas pela Anatel e Minicom com as concessionárias de telefonia fixa para alteração do PGMU III. A equipe técnica da agência reguladora entendeu que a melhor forma de assegurar as metas de universalização nas áreas rurais era liberar o uso da faixa pelas concessionárias. Caso o entendimento da área técnica prevaleça, a faixa sequer seria licitada.
Dada a nova circunstância, o comando da Telebrás entendeu que precisava deixar claro que não eram apenas as concessionárias que teriam interesse em utilizar a faixa.
Sem exclusividade
O detalhe mais importante do ofício, obtido com exclusividade por este noticiário, é que a Telebrás se compromete a não prejudicar as metas de universalização caso fique com o direito de uso da radiofrequência.
Ao fim do documento, o presidente em exercício da estatal declara: "Finalmente, ressalto que caso a Telebrás seja autorizada a fazer uso desta faixa, deverá fornecer, nos termos do art. 13 da Resolução n. 558, de 2010, infraestrutura às prestadoras que estejam obrigadas a atender às metas de acesso, conforme Plano de Metas para Universalização (PMU) e Plano Geral de Metas para a Universalização (PGMU)".
Ou seja, a garantia dada pela Telebrás asseguraria a manutenção das metas negociadas com as teles, mesmo liberando a faixa para uso e gerenciamento pela Telebrás.
A resolução citada pela Telebrás é a que aprovou o novo Regulamento sobre Canalização e Condições de Uso de Radiofrequências na Faixa de 450 MHz a 470 MHz. Esse novo regulamento, editado em dezembro do ano passado, abriu caminho para que a faixa fosse utilizada prioritariamente para a massificação dos serviços em regiões rurais e remotas.
As empresas que vierem a fazer uso dessa faixa, no entanto, são obrigadas a fornecer infraestrutura a eventuais interessados a "preços razoáveis e condições adequadas" (artigo 13, citado no ofício).
Novos rumos
Com a apresentação do pedido formal da Telebrás para ficar com a faixa, abre-se uma nova alternativa para o desfecho das negociações do PGMU III. Havia uma expectativa de que a proposta final do plano de metas fosse deliberada pelo Conselho Diretor da Anatel ainda nesta semana, mas o assunto não consta na pauta da próxima quinta-feira, 24.
Vale lembrar que, após a deliberação do Conselho Diretor, o documento ainda precisa ser analisado pelo Conselho Consultivo da agência e, depois, pelo próprio Ministério das Comunicações, que poderá alterá-lo.
Principal caminho para alcançar disponibilidade, escalabilidade e desempenho
No atual ambiente de negócios, as companhias dependem fortemente de aplicações baseadas na web para se comunicarem e conduzirem transações tanto externas como internas.
Com mais pessoas acessando os websites por meio de smartphones, com o surgimento de aplicações criadas por terceiros, os novos blogs, redes sociais e sites de vídeos e fotos, o tráfego cresce significativamente e não mostra nenhum sinal de diminuir. Mais e mais poder de processamento está sendo exigido nos pontos de agregação de dados, tais como balanceamento de carga e controladores de entrega de aplicativos.
Para responder a essas demandas, sem aumentar os custos, muitos datacenters demandam a fabricação de servidores e aplicativos dedicados para prover alto desempenho e produtos que sejam eficientes do ponto de vista de energia.
Alguns fabricantes pretendem utilizar a mais recente "Intel Power Curve" para aumentar consistentemente o desempenho total dos seus produtos. Infelizmente, alguns aplicativos legados, foram desenvolvidos para processadores únicos.
Por isso, adequar o software legado às plataformas com procesamento multi-core faz com que os resultados finais sejam menores do que o esperado.
A necessidade da arquitetura Multi-CPU
A finalidade geral das plataformas CPU há mais de duas décadas tem sido o ganho em desempenho primário por meio do aumento da velocidade do clock. Ao mesmo tempo em que isso faz com que o desempenho melhore, aumentar a velocidade do clock também faz com que cresça o consumo de energia e se reduza a eficiência no chip. Tem que haver outra solução em longo prazo.
A resposta parece estar nos processadores multi-core em pequenos chips. Com a velocidade de memória cada vez maior, o novo hardware multi-core tem desempenho comparável a ASICs. No entanto, o hardware de alto desempenho sozinho não irá resolver o problema. Hoje, o desempenho prático de aplicação está muito aquém dos avanços dos processadores e da memória de banda larga.
A principal questão é relacionada ao software. Sem um completo redesenho do software legado, os reais benefícios de desempenho das aplicações multi-core podem nunca serem sentidos. A indústria precisa do desenvolvimento de um software avançado para alavancar os avanços dos processadores multi-core. A solução real está em ter uma arquitetura de software multi-threaded escalável, de alto desempenho e eficiente, sintonizada com as plataformas modernas, multi-core e com multi-processadores.
Como observado, as empresas estão procurando por alto desempenho, flexibilidade, soluções para satisfazer suas necessidades de aplicações. No entanto, o objetivo de desempenho muitas vezes não condiz com as necessidades de flexibilidade. Ao projetar uma rede, a fim de satisfazer de forma eficaz as necessidades de desempenho e flexibilidade, é preciso entender as diferenças nas tecnologias possíveis a serem aplicadas.
Já existem no mercado companhias que têm focado seus recursos de engenharia no desenvolvimento de tecnologias revolucionárias, capazes de prover Application Delivery Networking com escalabilidade, flexibilidade e facilidade de gerenciamento. Essas soluções oferecem alto desempenho, inteligência e baixa latência para altos volumes de aplicações de Internet. Eliminam ainda a ineficiência associada às arquiteturas de multi-processamento tradicionais.
As abordagens tradicionais podem incorrer em uma sobrecarga significativa - inter-process communication (IPC), entre os diferentes processadores / processo de execução da parte de um aplicativo, bloqueios de memória ineficientes para acesso a dados simultâneos, e sobrecarga na linha de programação e de comutação. Essas arquiteturas mais modernas não possuem nenhuma sobrecarga IPC, tornando-se altamente eficientes no acesso à memória compartilhada simultânea.
Além disso, pela sua própria arquitetura tiram vantagens de avanços constantes nas plataformas de processamento, estando desta forma totalmente prontas para o futuro.
Saturday, 19 March 2011
É urgente mais espectro para banda larga móvel, diz 4G Américas
A associação 4G Américas, que representa a família 3GPP de tecnologias, divulgou um relatório no qual destaca a urgência da liberação de novas faixas para a banda larga móvel. Segundo a associação, a implementação de uma nova alocação de espectro pode levar até cinco anos e, por isso, é necessário que o trabalho começe já.
Uma das pricipais banderias da associação é o fim do limite de espectro (spectrum cap) para cada operadora. “A alocação de espectro regida pelo mercado funciona – limites de espectro devem ser evitados”, recomenda o relatório.
Além desta, as outras recomendações são: criar licenças com maior largura de banda; agrupar serviços semelhantes; levar em conta padrões tecnológicos globais; buscar a alocação harmonizada de espectro e esgotar opções de uso exclusivo antes de implementar o uso compartilhado.
O número de assinaturas para a banda larga móvel cresce constantemente e em 2008 ultrapassou o número de assinaturas da banda larga fixa. No fim de 2009, a banda larga móvel contou com 640 milhões de assinaturas e a banda larga fixa com 490 milhões. Segundo a Informa Telecoms & Media haverá 1,3 bilhão de assinaturas de banda larga móvel no mundo inteiro até o final de 2011, e 4,2 bilhões até dezembro de 2012.
O relatório da 4G Americas explora a crescente necessidade de serviços sem fio e as consequências de suprir essa demanda com as atuais redes de banda larga móvel. Além disso, o relatório revela que os países da América Latina devem agir rapidamente para garantir a disponibilidade de um recurso chave, o espectro, para atender a demanda por serviços de banda larga móvel.
Thursday, 17 March 2011
Sete dicas para evitar problemas ao encerrar contratos de TI
Um eventual rompimento com fornecedores de tecnologia deve ser avaliado antes mesmo da assinatura do contrato. Com a nuvem, a situação fica ainda mais delicada.
O início do contrato com um novo provedor de serviços de TI é marcado por apertos de mão e sorrisos. O futuro sempre parece promissor e as promessas dos hábeis vendedores arrebatam os responsáveis pela contratação.
Algumas vezes, no entanto, não demora para que os problemas surjam: prazos negociados com cuidado começam a ser ignorados, aplicativos que você pagou caro para desenvolver, param de funcionar, o servidor ou nuvem que era vendida como extremamente confiável, apresentam problemas de instabilidade. Quando essa trilha tem início, não dá mais para reverter a situação. O melhor é a separação!
Romper com o provedor passa a ser considerada a única opção possível, mas até para isso é preciso ter metodologia. O caso de uma pequena empresa de biotecnologia norte-americana da região das Montanhas Rochosas é emblemático. Ao saber que seria dispensando, um consultor de TI inseriu um script para que todos os e-mails dos altos executivos fossem transmitidos para ele. Em pouco tempo, o profissional descobriu que um dos cientistas líderes estava tendo um caso. No dia de ir embora, ele juntou os e-mails com teor picante e encaminhou para a esposa do cientista.
“Foi pior do que uma novela para o cliente”, afirmou o CEO do Uptime Group, Patty Laushman. A Uptime foi a empresa responsável por realizar perícias e provar que o fornecedor de TI estava por trás do esquema de invasão de privacidade. “Se soubéssemos quão infelizes eles estavam com o fornecedor, teríamos orientado para uma mudança segura”, diz.
Claro que nem todos os fornecedores são capazes de tais requintes de vilania. Alguns fornecedores que se consideram injustiçados simplesmente vão processar a companhia que contratou. E a justiça que resolva. Mas nunca dá para ignorar o fato de que eles terão acesso fácil a informações confidenciais e sistemas núcleo de negócios. Então, o risco de um rompimento em maus termos é realmente grande. À medida que mais serviços forem migrando para as nuvens, os relacionamentos se tornarão mais curtos e impessoais, o que pode gerar problemas quando sistemas críticos e dados não estão mais sob o teto da corporação e os fornecedores não retornam as ligações.
Com base em situações vivenciadas, consultores dão dicas de como realizar uma transição suave e segura do rompimento da relação.
Dica 1 – Faça um rompimento planejado
O melhor momento de se separar de um fornecedor é com cabeça fria. Se a atitude for tomada no calor de um momento de raiva, sem dar chance de ele dar alguma justificativa para o problema, as conseqüências podem ser desastrosas. Mesmo em caso de clara negligência do fornecedor, as decisões devem ser tomadas de forma bem planejada, racionalmente.
“Buscar uma troca de fornecedores durante discussões calorosas pode tornar o processo impossível”, diz o CEO da empresa de serviços gerenciados RackAid, Jeff Huckaby. “Vi casos em que um provedor de infraestrutura se recusava a dar assistência ou a responder as questões mais básicas por má vontade.”
Se possível, Huckaby aconselha um diálogo aberto com o fornecedor, detalhando porque está optando por uma nova direção, sempre de forma cordial. E mesmo que haja uma resistência, como retenção de dados ou demandas irracionais, o CEO da empresa de consultoria em estratégia de TI Leverage Corporation, Norman Harber, aconselha a contornar com elegância. “O fornecedor deve ser lembrado de que sua colaboração, ou não, pode influenciar nas referências futuras que a empresa vai fornecer sobre seus serviços”. Harber diz que negociar pagamentos de saída e um pequeno bônus em caso de uma transição como planejado também pode auxiliar.
Dica 2 – Continuidade
Um dos cuidados que a empresa deve ter ao mudar de fornecedor é não deixar as operações de TI sem apoio ou incompletas durante a transição. “O processo precisa ser gerenciado com muito cuidado para garantir continuidade dos negócios e ao mesmo tempo evitar a interferência do provedor velho no novo”, avalia Huckaby.
Apesar disso, nem todos os serviços precisam de redundância durante a transição. “Em alguns casos, é melhor não ter. Não é necessário que dois grupos respondam a chamados de sistemas fora do ar ou coisas do gênero, para ficar em um exemplo”, completa o CEO da RackAid.
Segundo o sócio da empresa de estratégia FivePaths, Eric Leland, em geral, o conselho é não demitir um fornecedor antes de ter uma alternativa viável pronta para operar. “Pode parecer custoso manter dois fornecedores por um tempo, mas o prejuízo com indisponibilidade, trabalhos paliativos, entre outros, podem ser maiores.
Para Harber, a transição torna-se mais suave se os dois fornecedores, o velho e o novo, conversarem e combinarem detalhes. Mas o relacionamento com o antigo só deve ir até a transição ser completa. “O ideal é cortar os laços radicalmente, facilitando a vida dos dois lados na continuidade dos negócios.”
Dica 3 – Questões na nuvem
Não é porque o serviço é fornecido na nuvem que será fácil o rompimento com o fornecedor. Em alguns casos, pode ser ainda mais complicado, segundo Leland. “A estratégia para romper mudou com a nuvem. O risco de perder tudo, como serviços e dados, é ainda maior, já que muitos fornecedores gerenciam ambos. As empresas devem avaliar a criticidade dos serviços e dados, possibilidades de perdas e tomar as providências antes da migração.”
Segundo Harber, as empresas têm a falsa sensação de que a migração de fornecedores, nesse caso, é uma simples transferência de dados. “Todas as opções configuráveis, arquiteturas únicas de dados e requisitos de segurança de um data center virtual pode dificultar ainda mais o processo.
Dica 4 - Evite disputas por direitos
Não depender de apenas um cliente ou de um fornecedor é regra canônica das relações entre empresas e provedores de serviços. Não raramente, companhias menores falham em obter a custódia dos aplicativos desenvolvidos por ex-fornecedores. O resultado costuma ser uma versão de aplicativo impossível de ser atualizada e sistemas que não podem ser usados em outros conjuntos de software ou de hardware.
“Muitas vezes, as empresas enfrentam problemas na hora de convencer fornecedores a desenvolver dinâmicas que possibilitem seu desligamento. Para se defender de tais possibilidades, provedores de serviço costumam propor contratos de manutenção”, afirma Leland. “Um tipo de serviço que o contratante deve tentar incluir no contrato é uma validação de rotinas de backup, por exemplo. Assim, se a hora fatal do adeus corporativo chegar, a contratante tem certeza do estado em que se encontra a base de dados.”
“Às empresas cabe estender seu conhecimento acerca dos sistemas de TI da companhia, além do código e de seu conteúdo”, afirma Laushman. Para o executivo, não há cenário pior que um ex-consultor com vasto conhecimento acerca de suas operações, incluindo aí as partes essenciais do sistema corporativo.
“Houve um caso, em que determinado sujeito foi responsável pelo desenvolvimento de sistemas para um cliente por mais de dez anos sem deixar qualquer rastro de documentação sobre os frutos de seu trabalho”, alerta Laushman. “Na hora de se desligar dessa empresa, foi difícil conseguir arregimentar a documentação sem levantar suspeitas dos planos de rompimento do contrato, porém necessário para não ter de gastar uma infinidade de recursos na descoberta acerca do funcionamento dos mecanismos lógicos desenvolvidos”, continua. “Ao final das contas, qualquer informação adicional é capaz de se reverter em economia”, finaliza.
Dica 5 – Acerte as condições do contrato
A sensação de se livrar de um fornecedor pode ser uma experiência libertadora. Para essa sensação não ser interrompida por falta de planejamento, vale criar condições que não ponham a corporação em uma situação mais difícil do que a que acaba de sair com a rescisão do contrato.
Ou seja, é absolutamente necessário criar cláusulas no instrumento que determinem incentivos e penalidades nas eventualidades de sucesso ou de falha em cumprir determinados aspectos da prestação de serviços. O rompimento do contrato sem maiores conseqüências é outro item imprescindível no acordo.
Não espere uma reação tranqüila do fornecedor ao romper o acordo. Vale criar instrumentos para mensurar o desempenho do fornecedor, ferramentas que ele próprio concorde sejam usadas nesse trabalho de monitoramento. “Alguns fornecedores estão acostumados a trabalhar nessas condições, mas não são todos”, diz o diretor da empresa Chaco Canyon, Rick Brenner.
O executivo afirma que a proteção oferecida por tal tática contratual não é dada gratuitamente pelo fornecedor.”Ele irá criar cláusulas semelhantes para sua própria proteção e vale determinar se os valores estabelecidos pela empresa contratada são razoáveis. Caso negativo, isso deve ser avaliado com calma, pois qualquer valor exorbitante pode expressar más intenções por parte do prestador de serviços”, avisa Brenner.
Dica 6 - Respire fundo
Antes de registrar o rompimento do contrato em cartório, vale dar uma boa olhada no espelho e avaliar se está é mesmo a melhor alternativa. Autocrítica é importante nesse momento, pois não se sabe se ações por parte da empresa cliente não levaram a relação ao nível em que ela está atualmente – caindo aos pedaços.
Sobre isso, Brenner afirma que é normal que seja feita uma mea culpa, em que ambas as partes concordam ter contribuído para a deterioração da relação comercial. “Antes de bater o martelo, certifique-se de estar correto em todos os aspectos”, diz.
Um desentendimento entre os colaboradores da empresa contratante e os funcionários do fornecedor, por exemplo, é uma porta de entrada para conflitos. Se for encomendada uma solução ao parceiro, vale não inflar demasiadamente as expectativas dos funcionários internos. Ainda que no projeto as diretrizes da solução estejam certas, muitas vezes, a empresa contratada ou o freelancer percebem circunstâncias que fazem o produto final destoar do prometido aos colaboradores fixos.
Na visão de Brenner, tudo se resume a uma questão de gestão de relacionamento afinada com o fornecedor. “Se tal gestão for conduzida de forma pobre, as circunstâncias conflituosas serão certas”, diz. “Depende de uma coordenação competente para que essa rotina de desentendimentos não azede a relação”, conclui sobre o assunto.
Dica 7 - Contrate aconselhamento
É uma alternativa bastante razoável à separação abrupta, que normalmente vem seguida por uma infinidade de processos. Vale estabelecer um mecanismo para resolução de conflitos junto à parte contratada. “Com base em uma mediação independente relacionada a outra parte, é mais provável que ambas cheguem a um consenso”, diz o diretor do centro nacional de resolução de conflitos em tecnologia da Universidade de Massachussets, Ethan Katsh.
Há duas modalidades para contratação de uma consultoria na resolução de conflitos:
Mediação: a parte contratada para mediar o conflito, age como elemento neutro que busca a melhor solução para ambas as partes. Consiste em, mesmo que uma das delas tenha noção de estar com razão, abrir mão do total esperado em detrimento de uma resolução menos traumática, mas satisfatória.
Arbitragem: nessa modalidade, um terceiro elemento decide de forma arbitrária sobre o fechamento da questão. Cabe às partes firmar um acordo acatando a decisão e se comprometendo a honrar o firmado.
FONTE - Infoworld-EUA
Tuesday, 15 March 2011
Para empresas, perder smartphone é pior que malware
Relatório de segurança divulgado pela IBM mostra que quatro entre dez empresas querem melhorar o gerenciamento dessas novas formas de acesso à rede.
Quatro entre dez empresas querem estender seus sistemas de controle e segurança para os smartphones de seus funcionários e outros terminais de acesso (endpoints) não convencionais - onde, em muitos cenários, a perda ou roubo de um aparelho oferece um risco maior que ataques de malware, aponta a prévia de uma pesquisa divulgada nesta terça-feira (1/3) pela IBM.
Segundo dados preliminares do relatório X-Force 2010 Trend Report, 90% das empresas têm investido mais para proteger seus pontos de acesso (endpoints), termo que designa todos os dispositivos conectados à rede, incluindo os tradicionais servidores, PCs e laptops.
E mais: 40% das grandes empresas pesquisadas afirmaram que já tem em seus planos um aumento nos investimentos de proteção exclusiva a pontos de acesso não convencionais - aparelhos que vão além dos micros e laptops e se estendem para fora do ambiente corporativo.
Desafio
A proteção dos dispositivos móveis é um dos maiores desafios das empresas atualmente, disse o gerente geral das soluções de segurança da IBM, Steve Robinson, na apresentação que abriu o segundo dia do IBM Pulse 2011, evento de serviços gerenciados que ocorre esta semana em Las Vegas (EUA).
“Houve uma 'consumidorização' da segurança pelos empregados”, definiu Robinson. “Eles querem trazer para a empresa aquilo que usam em casa. Isso faz com que seja difícil dizer o que é corporativo ou pessoal.”
Outros riscos maiores à segurança corporativa estão nas ameaças internas - “quando um funcionário não entende as políticas internas, ou o bonzinho de repente se torna um sujeito mau” - e a cada vez maior regulamentação governamental (“que traz mais complexidade às operações”).
No primeiro caso, Robinson deu como exemplo o vazamento, pelo WikiLeaks, das mensagens diplomáticas dos Estados Unidos - segundo foi apurado, os dados foram enviados ao site por um soldado americano, que queimou um CD com os documentos e o disfarçou como se fosse um disco com músicas de Lady Gaga.
Carro voador
Ao contrário do que ocorre nos PCs, o maior risco à segurança da empresa em relação aos smartphones não está nos malwares móveis – que, nas palavras do diretor de soluções de segurança da IBM, Amrit Williams, pode ser comparado ao “carro voador”.
“Pode ser que um dia seja, mas essa não é a ameaça predominante hoje”, disse Williams, em conferência com jornalistas nesta terça. “A maior ameaça potencial é o roubo ou a perda desses aparelhos. Em breve todos andarão com aparelhos de bolso que terão mais poder do que meu Macbook Pro”, disse. “São os dados corporativos que estão em risco.”
A IBM afirma, com base em números da empresa de pesquisas Gartner, que haverá em 2015 aproximadamente 1 trilhão desses aparelhos conectados, incluindo os tradicionais micros mas englobando também caixas eletrõnicos, caixas registradoras e sensores em carros e prédios - uma visão que a empresa chama de Smart Planet, e que tem dado o tom ao evento de Las Vegas.
E a invasão do ambiente corporativo por esses aparelhos têm encontrado pouca resistência. O levantamento apontou que 73% das empresas permitem atualmente, em suas redes corporativas, o uso de pontos de acesso não convencionais, como smartphones e tablets. Mesmo que, para 36% delas, exista a percepção de que esses aparelhos não são adequadamente protegidos.
“As empresas se perguntam como podem ter visibilidade e controle desses aparelhos fora de seu perímetro de segurança”, disse Williams.
Uma resposta da IBM ao problema é o Tivoli Endpoint Manager, que segundo a empresa é capaz de gerenciar até 100 mil pontos de acesso a partir de um único servidor. Em parceria com a Trend Micro, a IBM acabou de anunciar a inclusão de uma solução antimalware ao pacote.
“Sabemos que o antivírus responde apenas a parte da questão de segurança”, disse o gerente geral Robinson, em sua apresentação. “Nós queremos ir mais longe e atacar a questão da segurança operacional. Toda operação – e-mail, identificação na rede, aplicações – precisa ter sua proteção assegurada.”
O X-Force 2010 Trend Report foi preparado sob encomenda para a IBM pela Zogby International, que entrevistou 289 profissionais de TI em posições de liderança. A íntegra do relatório será divulgada ainda este mês, informa a IBM.
Contas bancárias e postos recebem doações para vítimas de tragédia
Três associações instaladas em São Paulo ligadas à comunidade japonesa já disponibilizam serviços para recebimento de doações financeiras em benefício das vítimas do terremoto e tsunami que atingiram a costa do Japão na última sexta-feira, dia 11.
A Federação das Associações de Províncias do Japão no Brasil criou a Campanha SOS Japão por meio de uma conta bancária, anunciada nesta segunda, dia 14.
Outras duas organizações, também localizadas no bairro paulistano da Liberdade, principal concentração da comunidade japonesa no país, disponibilizam esquema para ajuda às vítimas, mas ambas só receberão as doações nas suas respectivas sedes.
A Miyagui Kenjikai do Brasil aceita doações que serão enviadas diretamente a uma das províncias mais atinigidas pelo tsunami que seguiu ao terremoto de 8.9 graus de magnitude. A Sociedade Brasileira de Cultura Japonesa e de Assistência Social também se organizou para receber ajuda.
Veja onde depositar ou levar sua contribuiação para as vítimas do terremoto e do tsunami no Japão:
Campanha SOS Japão - Federação das Associações de Províncias do Japão no Brasil
Banco do Brasil
Agência: 1196-7
Conta corrente: 29921-9
CNPJ - 46.568.895/0001-66
Miyagui Kenjikai do Brasil
Rua Fagundes, 152, Liberdade
Horário de funcionamento: 9h às17h
Sociedade Brasileira de Cultura Japonesa e de Assistência Social
Rua São Joaquim, 381 (térreo), Liberdade
Horário de funcionamento: 9h às 17h30
Busca de informações
O Comitê Internacional da Cruz Vermelha disponibiliza uma versão em português do site criado para ajudar os brasileiros a localizarem parentes e amigos no Japão. O serviço é gratuito e o endereço do site é :
http://www.familylinks.icrc.org/web/doc/siterfl0.nsf/htmlall/familylinks-japon-por
Boa parte da rede óptica brasileira tem problemas de qualidade, diz CPqD
Cerca de 38% de toda a planta óptica do Brasil apresenta falhas de dispersão de sinal (PMD, ou modo de dispersão de polarização, em português). Em outras palavras, possuem assimetrias e imperfeições que fazem com que as ondas viajem a velocidades diferentes e a propagação dos pulsos ópticos ocorra de forma aleatória, o que limita a taxa de transmissão de dados nas fibras. Além disso, 46% dessa infraestrutura tem seu sinal enfraquecido ao longo do cabo por apresentar atenuação acima dos 0,24 decibéis (dB) por quilômetro, valor mínimo recomendado por organismos internacionais.
O diagnóstico é do CPqD. Entre backbone e backhaul, cerca de 30 mil quilômetros de fibras foram analisados. Apesar disso, segundo Edna Aparecida Sabatina Saito, da gerência de Marketing de Produto e Inovação Óptica do CPqD, a amostragem representa a realidade de toda a infraestrutura óptica do país.
Grande parte ainda opera com hierarquia digital síncrona (da sigla em inglês SDH), uma tecnologia inferior ao sistema de multiplexação por divisão de onda de luz (da sigla em inglês WDM), que permite a transmissão de dois ou mais canais simultâneos por um mesmo meio de transmissão.
“Nosso parque de fibras está bem desatualizado, some-se a isso a mão-de-obra terceirizada que muitas vezes corta e emenda essas fibras de qualquer maneira”, diz.
Apesar da imunidade à interferências eletromagnéticas e da maior capacidade de transmissão de dados em relação aos cabos metálicos, os cabos ópticos são compostos de fibras de vidro ou de materiais poliméricos com capacidade de transmitir luz de diâmetros ínfimos, da ordem de micrômetros (mais finos que um fio de cabelo) até milímetros. Por isso, são muito sensíveis a torções, dobras, trações e demais condições de stress.
Tendência é piorar
Segundo a especialista, a tendência é que este cenário piore ainda mais se nada for feito. Isso porque os serviços estão exigindo cada vez mais largura de banda e, com a evolução das redes, o enfraquecimento, perda e dispersão dos feixes de luz ao longo do cabo óptico também aumentarão. “Neste ano já começa a surgir as primeiras RFPs (solicitações de propostas) de sistemas de 40 Gbps e a expectativa é que o 100 Gbps chegue entre 2012 e 2013, no Brasil em 2014”, adverte.
Ela cita o exemplo de uma grande operadora nacional que migrou uma parte de seu backbone de 10 Gbps para 20 Gbps. “Fizeram e o sistema caiu, pois 73% do trecho daquela infraestrutura não estava apto para atender esse aumento de capacidade”, revela.
De acordo com a especialista, somente 4% de todo esse backbone carecia de substituição de cabos ópticos. Os outros 96% necessitavam apenas de medições, análises e algumas correções, sem grandes investimentos.
Reparos de fusões malfeitas e instalações de multiplexadores em pontos estratégicos do link, segundo ela, foram suficientes para restabelecer a qualidade de todo o trecho. “As vezes um equipamento multiplex é o suficiente e sete vezes mais barato que um regenerador”, explica.
Edna cita outro dado para justificar a necessidade da consultoria de uma empresa especializada antes de a operadora construir ou buscar evoluir sua malha óptica: “a operadora gastará 30% em novos equipamentos para fazer o mesmo que faria com um simples serviço de análise e readequação da rede”, diz.
Sunday, 13 March 2011
Mobilidade 3.0: comunicação sem limite
Como serão as comunicações móveis de 2020? Estudos e pesquisas elaborados pela União Internacional de Telecomunicações (UIT) e por consultorias de renome têm a resposta a essa pergunta: o mundo poderá ter um total de 55 bilhões de dispositivos de comunicação móvel no fim desta década.
Desses 55 bilhões, cerca de 12 bilhões de dispositivos móveis serão, acima de tudo, smartphones, tablets, celulares convencionais, leitores eletrônicos (e-readers) e outros, dedicados à comunicação pessoa-pessoa e homem-máquina. Os restantes 43 bilhões de dispositivos móveis, num cenário de quase ficção, serão voltados à comunicação máquina-máquina nas mais diversas funções. Por outras palavras, as máquinas se comunicarão muito mais com outras máquinas, numa proporção quase quatro vezes maior do que as pessoas entre si. Assim será o que já se chama de mobilidade 3.0.
Esse tema despertou o entusiasmo da maioria dos palestrantes do Congresso Mundial de Mobilidade (Mobile World Congress 2011), de 14 a 17 de fevereiro em Barcelona, que sintetizamos aqui com base nas apresentações de oito líderes setoriais, presidentes ou CEOs das maiores operadoras e corporações da área de comunicações: Randall Stephenson, da AT&T; Wnat Jianzhou, da China Mobile; Vittorio Colao, da Vodafone; Ryuji Yamada, da NTT DoCoMo; Hans Vestberg, da Ericsson; Ben Verwaayen, da Alcatel-Lucent; Eric Schmidt, do Google; e Steve Ballmer, da Microsoft.
Como será esse diálogo entre bilhões de sensores, dispositivos móveis e máquinas? Steve Ballmer, presidente da Microsoft, afirma que a conectividade mais ampla possível dominará a mobilidade nesta década: "Nesse ambiente de mobilidade generalizada, todos os dispositivos se conectarão entre si", prevê.
Um dos melhores exemplos que conhecemos dessa comunicação entre máquinas e objetos é o sistema de localização via satélite (GPS, sigla de Global Positioning System), que já conecta quase 500 milhões de veículos em todo o planeta e é formado por uma constelação de 24 satélites do sistema GPS. Em 2020, seremos quase 4 bilhões de usuários de sistemas de navegação e localização muito mais avançados, sucessores do GPS, para orientar nossos caminhos e dizer onde estão as pessoas ou objetos que procuramos.
Outro exemplo de comunicação máquina-máquina usado em nosso dia a dia é aquele baseado na tecnologia de dispositivos de identificação por radiofrequência (RFID, sigla de Radio Frequency Identification Devices), nos pedágios automáticos, como no sistema "Sem Parar", nas rodovias paulistas. Pois bem. No futuro, haverá milhões e milhões de sistemas RFID, até em uso pessoal e doméstico.
"Mas nem todas as operadoras, governos e reguladoras estão cientes dos desafios que comunicação máquina-máquina poderá representar nos próximos anos", adverte Hans Vestberg, presidente da Ericsson.
Friday, 11 March 2011
Área técnica da Anatel fecha proposta de mudança no Plano de Metas de Universalização
Após meses de negociação com as concessionárias de telefonia fixa, a equipe técnica da Anatel concluiu esta semana uma primeira proposta de alteração do Plano Geral de Metas de Universalização (PGMU III), que vigorará até 2014. E, à primeira vista, os argumentos apresentados pela Oi ao longo do debate parecem ter convencido a agência reguladora. A grande maioria dos pedidos feitos pela concessionária foi atendida pela proposta que já circula no Conselho Diretor. A questão das metas de backhaul, como já se sabia, ficou fora do PGMU, para ser negociadas como compromissos voluntários.
Um dos pontos mais sensíveis do novo PGMU deverá ser a liberação do uso da faixa de 450 MHz pelas concessionárias como forma de viabilizar a instalação de TUPs e acessos individuais no interior do país. Desde a primeira apresentação do PGMU à sociedade, as empresas contestaram a possibilidade de cumprir as metas rurais sem a liberação da faixa de 450 MHz, visada também pela Telebrás no contexto do Plano Nacional de Banda Larga (PNBL). A ideia de expandir o serviço às áreas rurais chegou a ser abandonada no início do debate sobre as novas metas, mas agora retornou com força total.
Dívida rural
Técnicos ouvidos por este noticiário argumentam que o setor possui uma "dívida" com as áreas rurais, já que depois de 13 anos de privatização o atendimento dos brasileiros que estão fora dos grandes centros ainda é bastante precário. Assim, abrir mão dessas metas específicas não seria a melhor opção para a agência reguladora. A saída foi ressuscitar a liberação da faixa de 450 MHz para as empresas. Na opinião dos técnicos, expressa na primeira versão do relatório, o uso dos 450 MHz seria o "caminho técnico mais natural e racional".
Prevalecendo essa hipótese, seria imposto às empresas apenas um "ônus regulatório", ou seja, a fixação de compromissos de atendimento sem a cobrança tradicional pelo uso da faixa de radiofrequência. O custo original para exploração da radiofrequência seria descontado na planilha de cálculo do próprio PGMU, equilibrando as contas das novas metas. Mas, ainda assim, as contas não fecham. Para completar a diferença de custo, a área técnica aponta como imprescindível o fim do recolhimento efetivo do "ônus da concessão".
A Anatel já decidiu no ano passado flexibilizar a cláusula do contrato de concessão que trata do ônus, permitindo que esse pagamento seja revertido para o financiamento das metas de universalização. Na prática, as empresas deixarão de recolher os 2% pagos bienalmente sobre seu faturamento bruto a título de manutenção da concessão. A desoneração, no entanto, entrará na planilha de custos do PGMU, equilibrando as contas.
Alternativas
Mesmo com o claro empenho da área técnica em viabilizar as metas rurais por meio do 450 MHz, a equipe sugeriu outras duas opções para que o Conselho Diretor possa deliberar qual o melhor caminho. A mais radical seria eliminar as novas obrigações de instalação de acessos individuais (telefones na casa dos consumidores) e postergar as exigências de instalação de Telefones de Uso Público (TUPs) nas regiões mais distantes. Neste contexto, a faixa de 450 MHz não seria usada, mas ainda assim o abatimento do ônus da concessão seria necessário para equilibrar as contas.
A terceira alternativa é assegurar que todas as metas rurais sejam custeadas com recursos do Fundo de Universalização dos Serviços de Telecomunicações (Fust). Nessa hipótese, sequer o pagamento do ônus precisaria ser descontado. Apesar de parecer mais simples e econômico, o caminho de uso do Fust mostrou-se complicado na história da Anatel.
Em tese, o fundo serviria exatamente para custear esse tipo de expansão dos serviços de telefonia, mas em uma década de existência pouco mais de 1% dos recursos foram de fato aplicados no setor. Na verdade, o Fust continua servindo, basicamente, para colaborar com o superávit primário do governo federal, já que não pode ser usado em outro setor que não o de telecomunicações.
Friday, 4 March 2011
Imposto de Renda: envio da declaração ficará suspenso entre amanhã e domingo
A Receita Federal informou "o serviço de recepção de declarações do Imposto de Renda estará suspenso entre as 15h deste sábado até as 11h de domingo".Caso o contribuinte tente enviar sua declaração durante o período receberá mensagem de erro. Neste período, os computadores onde são processados os envios de declaração Imposto de Renda (IR) passarão por manutenção.
A interrupção para a manutenção, segundo a Receita, já estava programada pela área técnica do Serpro. Mas no comunicado divulgado no fim da tarde de quinta-feira, a Receita só informava que haveria manutenção programada para todos os dias entre 1h e 5h da manhã.
Baixe aqui os programas para fazer a declaração do IR
Em menos de uma semana de início do período de entrega da declaração, esta é a terceira vez que os contribuintes enfrentam dificuldades ou interrupção no envido dos documentos. Na terça-feira, primeiro dia do envio, houve lentidão para enviar o documento pela internet. Na quarta-feira, houve paralisação da transmissão das declarações por quase duas horas na devido a um problema no Serpro.
Dúvidas sobre a declaração. Envie sua pergunta para os especialistas da DeclareCerto IOB:
O Fisco recebeu 571 mil declarações de renda até as 17h desta sexta-feira. A expectativa da Receita é que cerca de 24 milhões de contribuintes prestem contas este ano. O prazo de entrega termina dia 29 de abril, às 23h59min59.
Thursday, 3 March 2011
Governo norte-americano lança mapa de banda larga
O governo dos EUA lançou recentemente, na internet, um mapa de banda larga.
A iniciativa mostra os tipos de conexão disponíveis em cada cidade norte-americana, o acesso à rede e as empresas atuantes.
“É uma forma poderosa de navegar em um imenso baú do tesouro de dados para aumentar a transparência e o entendimento”, resume Michael Byrne, diretor de informação geográfica da Comissão Federal de Comunicações (FCC, na sigla em inglês) dos EUA.
O mapa funciona sobre uma plataforma que permite fazer buscas por tipo de conexão, velocidade, endereços e nomes de provedores e assim realizar comparações regionais e locais. Ele é resultado de um banco de dados de 25 milhões de registros coletados pela FCC e pela Administração Nacional de Telecomunicações e Informação (NTIA, na sigla em inglês), incluindo uma pesquisa em 54 mil domicílios e 3.400 provedores. Pesquisadores foram a campo até para testar as velocidades alegadas pelas empresas, e usuários têm espaço para comentar os serviços e a veracidade das informações. Os dados estão atualizados até outubro de 2010.
“O mapa vai ajudar os americanos a fazer melhores escolhas em relação à banda larga”, complementou Julius Genachowski, presidente do FCC. Também servirá para embasar políticas de inclusão digital e de estímulo à concorrência naquele país, uma vez que será atualizado a cada seis meses e aponta com precisão os problemas existentes na política de inclusão digital dos EUA.
A iniciativa traz informações interessantes sobre a disseminação da internet nos Estados Unidos. Para começar, o FCC considera como banda larga velocidades de ao menos 4 Mbps, patamar bastante superior ao brasileiro, de 512 Kbps. De acordo com o órgão, 4 Mbps é a conexão necessária para acessar um “conjunto básico de aplicações”, como downloads de vídeos, fotos e acompanhamento de videoconferências na rede.
Assim, o mapa mostra que entre 5% e 10% dos norte-americanos não têm acesso à banda larga, apesar de 68% dos lares terem algum tipo de conexão em banda larga, índice cinco pontos percentuais acima do verificado em 2009.
Além disso, instituições públicas como escolas e hospitais também se ressentem de boa conexão. Segundo diretores de tecnologias de escolas norte-americanas citados no relatório de lançamento do mapa, cada colégio deveria ter uma conexão entre 50 e 100 Mbps para cada mil alunos. Os dados mostram, no entanto, que dois terços das instituições possuem acesso a menos de 25 Mbps. No caso de bibliotecas, somente 4% delas ultrapassam o patamar de 25 Mbps.
“O mapa mostra que ainda há muitas pessoas e instituições comunitárias sem o nível de serviço de banda larga necessário para participar totalmente da economia da internet. A exclusão digital permanece”, analisou o secretário para comunicações da NTIA, Lawrence Strickling.
Em relação ao acesso sem fio, o quadro mostra que 95% dos norte-americanos têm à disposição serviços de conexão à internet via 3G, com velocidade de ao menos 768 Kbps, e 36%, com ao menos 6 Mbps, o que equivale à próxima geração de acesso.
Situação no Brasil
No Brasil, números da Associação Brasileira de Telecomunicações (Telebrasil) indicam que o acesso à internet rápida no Brasil é crescente, mas ainda insuficiente. Entre janeiro de 2010 e o mesmo mês de 2011, a quantidade de conexões em banda larga aumentou 53%, sendo que os acessos via 3G tiveram incremento de 85%.
Ainda de acordo com a associação, os serviços de internet rápida são oferecidos hoje em 88% dos municípios, mas na maioria delas (três mil cidades) há apenas um prestador, o que limita a queda de preços, dada a falta de competição.
Data: 25 de fevereiro de 2011
Autor: Marcelo Medeiros
Wednesday, 2 March 2011
Veja os sete mitos da conta de luz
1. Secar roupas e panos na parte traseira da geladeira aumenta o consumo?
Verdade. Isso sobrecarrega o aparelho e não apenas aumenta o consumo, como também o risco de causar um choque. Por isso, mantenha essa área livre para a circulação de ar.
2. Posso instalar meu ar-condicionado em qualquer parte da casa?
Mentira. Quando colocados em locais com alta incidência solar, os aparelhos de ar-condicionado tendem a aumentar o uso de eletricidade. Por isso, procure instalá-los em um local onde bata menos sol ao longo do dia. Se não for possível, coloque uma proteção sobre ele, sem bloquear as grades de ventilação.
3. Fazer emendas no chuveiro elétrico aumenta a conta de luz?
Verdade. Essas adaptações são perigosas e causam aumento do consumo e danos ao chuveiro e à instalação elétrica. Por isso, jamais faça emendas e use sempre resistências originais, verificando a potência e a voltagem correta do aparelho.
4. Dispositivos eletrônicos como fax, impressora e até pen drive consomem energia?
Verdade. Esses acessórios muitas vezes ficam ligados sem motivo, o que causa uma despesa desnecessária na conta de luz. Por isso, desligue tudo que não estiver sendo utilizado – inclusive o computador. Tirar da tomada os equipamentos sem uso, do micro-ondas ao carregador do celular, também ajuda.
5. Lâmpadas amarelas incandescentes iluminam mais?
Mentira. Uma lâmpada fluorescente convencional de 40 W ilumina mais que uma incandescente de 150 W, além de durar dez vezes mais. Isso sem contar que existem lâmpadas fluorescentes brancas e amarelas.
6. É melhor passar as roupas aos poucos do que todas de uma vez?
Mentira. Com isso você fará com que o ferro consuma muita energia para aquecer a cada vez que o ligar. O ideal é acumular todas as roupas e passá-las de uma vez só. Aproveite ainda para passar as peças delicadas no início ou no final do processo, aproveitando enquanto o ferro aquece ou esfria.
7. Luz e ventilação naturais são as melhores escolhas?
Verdade. Além de economizar energia com lâmpadas e ar-condicionado, estudos comprovam que pessoas que ficam muito tempo em locais fechados produzem menos e adoecem com mais frequência. Por isso, abra as janelas e deixe a luz e a brisa entrarem.
Fonte : www.ecodesenvolvimento.org
Tuesday, 1 March 2011
Criação de conta eletrônica permite movimentar dinheiro sem tarifa
Uma novidade: a partir desta terça-feira (1) vai ser oferecida a chamada conta eletrônica - com tarifa zero. Funciona de forma simples. O correntista fica livre das tarifas, mas só se movimentar a conta apenas pelos meios eletrônicos, como internet e celular.
Agora, se ele usar qualquer meio tradicional, não eletrônico, como o caixa da agência, aí não tem jeito, vai ter de pagar a tarifa. A nova conta, segundo o Banco Central, deve atrair, principalmente, os clientes mais jovens.
A jornalista Mária Ribeiro nem lembra qual foi a última vez em que foi atendida pelo funcionário do banco. Ela faz todos os serviços pela internet. “É mais cômodo. Na correria de hoje em dia, não tem como ficar indo à agência enfrentando fila, aquela dor de cabeça, estou fora”, comenta.
Fazer saques, transferências ou depósitos sem pagar nenhuma tarifa – quem não gostaria? “É perfeito, porque acredito que essa tarifa seja para quem usufrua da agência. Se eu não usufruo e eles colocam caixas na rua, por que eu vou pagar?”, indaga a assistente de marketing Naira dos Santos. “Excelente e maravilhoso. Já existe?”, pergunta uma senhora.
Os bancos não são obrigados, mas já estão autorizados a oferecer uma conta com tarifa zero. É como se fosse uma conta corrente comum. O cliente vai ter apenas o cartão eletrônico para resolver tudo sozinho, mas não tem direito a talão de cheques. O cliente deve fazer as operações pela internet ou caixas eletrônicos. Assim, não vai pagar tarifa alguma.
Quem optar pela conta eletrônica poderá ir à agência para usar os caixas de autoatendimento. Mas, se precisar fazer alguma operação no balcão de atendimento, aí sim ele terá de pagar pelo serviço. Seria o mesmo valor cobrado de quem tem uma conta corrente comum.
O banco poderá cobrar tarifa de abertura desse novo tipo de conta, mas só se for um novo cliente. Correntistas antigos não pagam nada para ter uma conta eletrônica. Com essa novidade, o Banco Central espera aumentar concorrência no setor.
“Nós percebemos que há uma demanda forte só por utilização de uma parte da população, principalmente o público mais jovem, de só operar eletronicamente. Portanto, como forma de estimular a concorrência, nós abrimos essa possibilidade: que o banco possa oferecer uma conta com custo zero para o cliente”, explica Sérgio Odilon dos Anjos, chefe do departamento de normas do Banco Central.
O Banco Central informou ainda que quem já tem uma conta corrente comum poderá ter também a conta eletrônica. O número dessa conta nova é que pode não ser o mesmo da tradicional. Aí vai depender de cada banco.