ads

sábado, 3 de outubro de 2009

Microsoft afirma que Windows 7 aumenta produtividade nas empresas

O Windows 7, novo sistema operacional da Microsoft, chegará ao mercado brasileiro simultaneamente ao seu lançamento mundial, no dia 22 de outubro. E com uma novidade: terá interface na língua portuguesa no momento em que começar a ser comercializado em todo o mundo. Tradicionalmente a versão em português é lançada depois do modelo em inglês. A estratégia demonstra, segundo a Microsoft, o aumento da importância da operação nacional no contexto global dos negócios da companhia.
Antes mesmo do início das vendas para o consumidor final, a empresa centra esforços para atrair os clientes corporativos. A estratégia de sedução está na ponta da língua dos executivos da organização. A começar pelo diretor de grupo de negócios para clientes Windows, Alessandro Belgamo.
O executivo afirma que o novo sistema operacional proporciona aumento de produtividade, pois possui recursos que permitem ganho de tempo por parte do cliente, por exemplo."O Windows 7 veio para simplificar a vida do usuário e das empresas", entusiasma-se Belgamo.
Depois de fechar acordo com a Vivo, que desde fevereiro testa o Windows 7, a Microsoft espera selar nos próximos dias parceria para utilização do produto com outras cinco grandes companhias.
Utilização
Como exemplo, ele cita a ferramenta BranchCache, que reduziria o tempo de espera que os usuários levam para baixar arquivos pela rede. Para ilustrar o funcionamento, pense que um determinado arquivo precisa ser compartilhado pela matriz - que abriga o servidor - com diversas subsidiárias espalhadas pelo mundo.
O primeiro usuário da filial que acessar o material vai necessitar de um determinado tempo - 20 segundos, por exemplo - para carregar o arquivo. Mas, depois que ele acessar esse material, seus colegas de escritório o farão a uma velocidade muito maior, pois o Windows 7 buscará a informação diretamente da máquina do funcionário que baixou primeiramente o arquivo, e não do servidor de onde partiu o conteúdo, respeitando todos os critérios de segurança e permissão do respectivo arquivo.
Outro recurso contemplado no Windows 7 é o DirectAccess. Ele permite aos usuários remotos acesso direto à rede corporativa da companhia para a qual trabalham sem a necessidade de conexão VPN, rede privada virtual. Esse instrumento busca reduzir as dificuldades de gerenciamento de PCs quando as máquinas não estão conectadas à rede corporativa.

Apenas 38% das empresas brasileiras têm governança de TI

No Brasil, cerca de 38% das grandes corporações possuem projetos estruturados de governança de TI, ao passo que esse índice salta para 95% quando analisadas as melhores práticas na área de finanças. Os dados, que fazem parte de estudo realizado pelo Massachusetts Institute of Technology (MIT) e foram apresentados a CIOs brasileiros pelo presidente do conselho e pesquisador-sênior do Centro para Pesquisas em Tecnologia da Informação do MIT, Peter Weill. De acordo com o especialista, os números confirmam uma falta da maturidade das companhias brasileiras em relação à gestão do desempenho dos departamentos de TI.
Weill, que é autor do livro “IT Governance: How Top Performers Manage IT Decision Rights for Superior Results” (Governança de TI: Tecnologia da Informação, em português), defende que, embora a crise tenha aberto os olhos dos executivos quanto à importância das políticas de governança, no Brasil, apenas empresas dos setores financeiro e minerador evoluíram efetivamente no desenvolvimento de métricas e de processos para controle das operações de tecnologia da informação.
Ele destaca ainda que a chave para elaborar um projeto eficaz de governança de TI é “fazer tudo do modo mais simples possível”. Para tanto, Weill aponta quais são os quatro passos fundamentais que devem ser seguidos no processo de desenvolvimento das políticas:
1. Buscar o alinhamento com as áreas de negócios: de acordo com o especialista, antes de iniciar a elaboração do projeto de governança, os CIOs precisam conhecer profundamente a estratégia dos demais departamentos da organização. “Só assim saberão como estipular objetivos que realmente tragam resultados para o negócio”, diz ele.
2. Mapear projetos e serviços de TI: os CIOs devem mapear formalmente todos seus ativos e, principalmente, identificar redundâncias e aquilo que pode ser eliminado. “Dessa forma, reduzindo custos, ganharão a confiança dos gestores das demais áreas e mostrarão que não são apenas um centro de custos da companhia”, explica Weill.
3. Estebelecer prioridades: depois de eliminar o que é dispensável, os gestores de TI devem priorizar os projetos e serviços do departamento de acordo com a estratégia do negócio e buscando, sempre, a valorização da companhia perante o cliente final.
4. Acompanhar resultados: o CIOs devem avaliar as políticas de governança trimestralmente para, então, estipular metas mais factíveis à equipe e identificar fatores que atrapalham o desempenho da área, bem como a tomada de decisão por parte das lideranças.

quinta-feira, 17 de setembro de 2009

Lentidão põe em xeque a web móvel

Os mais de 2,2 milhões de brasileiros que usam modens 3G para acessar a internet passam hoje por uma encruzilhada tecnológica. Aquilo que era a promessa de internet em qualquer lugar e mobilidade completa tem deixado muitos consumidores desapontados, principalmente aqueles que viam na conexão pela rede de celular uma alternativa às restritas opções de serviços de banda larga fixa.
A insatisfação com as velocidades e com a qualidade dos serviços mostra que a demanda por internet móvel está evoluindo muito além do que a tecnologia e a infraestrutura de telecomunicações consegue acompanhar. Com as vendas de notebooks em alta (em 2008 foram vendidas 3,2 milhões de unidades), as pessoas passaram a querer usar internet 3G da mesma forma que usam banda larga fixa. E simplesmente não dá.
É por isso que a velocidade de conexão foi o pior atributo dos modens 3G em uma avaliação entre mais de 600 clientes pesquisados para um estudo sobre a internet móvel no Brasil, da consultoria YankeeGroup.
O advogado Alexandre Corrêa, de Osasco (SP), é um dos que se frustraram. Usuário há quase quatro meses, quando comprou um netbook e cancelou o plano de banda larga de casa, ele diz que a velocidade ficou em um nível adequado apenas no primeiro mês. “Só não me arrependi por completo porque o benefício de levar o notebook e acessar a internet em outros lugares ainda compensa.”
A situação dele é parecida à de outra cliente procurada pelo Link. Marta de Souza, de Guarulhos (SP), chegou a trocar de operadora para ver se a lentidão mudava, mas não teve sucesso. “Não vejo filmes, não baixo jogos, não faço download de nada; uso para ler e-mail, notícia e só; e não funciona. Tenho medo de trocar (de empresa) de novo e encontrar outro serviço que não dê conta”, afirma.
Analistas e especialistas em telecomunicações, porém, estão mais otimistas do que os usuários. De acordo com eles, as dificuldades são causadas porque houve um crescimento muito além do esperado e as redes das operadoras não estavam preparadas. Em um ano de crise, as empresas ainda não puderam investir tanto para acompanhar a expansão. Outra questão é a própria tecnologia de transmissão de dados pelas redes de celular, que tem problemas de todos os tipos: está sujeita à interferência e não comporta uma grande quantidade de tráfego de informação, como nas redes fixas, já consolidadas.
"O 3G não está propondo uma mobilidade estática (como no Wi-Fi). É uma mobilidade para trocar pacotes de dados mesmo em um carro. É uma rede complexa e a probabilidade de ter alguma interferência é muito grande”, explica Hélio Salles, diretor de mercado de telecomunicações do Centro de Pesquisa e Desenvolvimento em Telecomunicações (CPqD).
O problema é exatamente esse. Assistir a vídeos, baixar arquivos com centenas de megabytes, fazer ligação de voz já são hábitos comuns (e pesados). Como não é possível garantir nem uma velocidade de 1 megabit por segundo, nos casos mais otimistas, a impressão que o 3G passa é a de uma tecnologia nova que não dá conta do que as pessoas precisam.
"Até pela forma que foi divulgado, o modem 3G gerou uma expectativa alta no consumidor, que esperava uma banda larga como a de casa, e a conexão não suporta”, diz Vinicius Caetano, analista do IDC. E Júlio Püschel, do YankeeGroup, conclui: “Entendo o lado das operadoras, mas elas têm de se preparar para não deixar uma percepção ruim do serviço”.

quarta-feira, 16 de setembro de 2009

Pontos de acesso da Cisco podem expor redes a ataques

A AirMagnet, empresa norte-americana que desenvolve soluções de segurança para redes sem fio, descobriu que pontos de acesso da Cisco, aparelhos que propagam o sinal da rede, podem permitir que um hacker direcione tráfego para fora de uma organização, podendo dar a pessoas não autorizadas o acesso para toda a rede corporativa.
O porta-voz da Cisco, Ed Tan, disse que a empresa foi alertada pela AirMagnet e que está investigando o problema. “Não vamos nos pronunciar sobre a vulnerabilidade até que as investigações sejam finalizadas e que tenhamos uma medida corretiva que atenda todos os nossos consumidores”.
Na raiz do problema, está a ação de adicionar novos pontos de acesso na rede. Alguns equipamentos da Cisco, quando incluídos na infraestrutura, entram em contato com os equipamentos já existentes automaticamente, mas não escondem os endereços IP e MAC (Media Access Control). Captar essa informação pelo ar é simples e pode ser feito por ferramentas gratuitas que existem na internet.
Com base nessa informação, uma pessoa poderia atacar o servidor com uma negação de serviço e tornar indisponível uma seção inteira da rede. Nesse caso, o atacante deveria estar no local da rede para conseguir fazer essa tarefa.
O maior potencial de risco é que o hacker consiga conectar o ponto de acesso a outro equipamento fora da empresa, ganhando acesso a toda a rede corporativa. “Seria quase como criar uma porta dos fundos apenas usando um aparelho barato de ponto de acesso”, afirma o diretor de produto da AirMagnet, Wade Williamson.
A vulnerabilidade afeta todos os pontos de acesso de menor porte da Cisco, ou a maioria dos aparelhos de ponto de acesso que a empresa lançou desde 2005.

Confirmado: vem aí a 'internet elétrica'

A internet e diversos outros tipos de dados, como sinal de TV por assinatura, já podem chegar à casa do consumidor brasileiro pela rede elétrica.

A Agência Nacional de Energia Elétrica (Aneel) aprovou a resolução que define as regras para o uso da tecnologia Power Line Communications (PLC), que era o último documento que faltava para que a internet transmitida pela rede de distribuição de energia se tornasse viável. O regulamento determina as condições para o uso da infraestrutura das empresas distribuidoras de energia elétrica para implantação do sistema que permite a transmissão de dados por meio da rede já existente. A Cemig é uma das operadoras mais adiantadas no processo, uma vez que já conta com a Infovias, subsidiária com capacidade para oferecer esse serviço. Testes estão em curso. No entanto, ainda existem alguns entraves tecnológicos. Por isso, a expectativa é de que a internet pela rede elétrica para os mineiros apenas seja oferecida comercialmente a partir do ano que vem. O mesmo deve ocorrer no restante do país.

A resolução que acertou as regras para o uso da PLC delimita o uso das redes elétricas de distribuição para fins de telecomunicações, garantindo a qualidade, confiabilidade e adequada prestação dos serviços de energia elétrica, gerando incentivos econômicos ao compartilhamento do sistema e zelando pela chamada modicidade tarifária. Isso significa que, além de poder ser oferecida por um custo menor para o consumidor, por já contar com uma rede pronta para a distribuição, a internet pela rede elétrica tende a representar redução na conta de energia. Segundo o diretor-geral da Agência Nacional de Energia Elétrica (Aneel), Nelson Hubner, que esteve em BH no dia 14, a partir de agora, qualquer concessionária que domine a tecnologia e esteja pronta para oferecer o novo serviço vai poder apresentá-lo aos clientes. Mas as concessionárias de energia não vão poder explorar o serviço diretamente. Só devem oferecer a internet por meio de subsidiárias ou empresas parceiras. O uso da rede de distribuição é cobrado, parte dessa receita terá de ser revertida em benefício do consumidor e deve implicar redução das tarifas de luz. Segundo o diretor da Aneel, as empresas de telecomunicações que se interessarem em oferecer a internet via rede elétrica terão de arcar com os custos de adaptações necessárias.

De acordo com a Aneel, o prestador do serviço de PLC deverá seguir os padrões técnicos da distribuidora, o disposto na resolução e na regulamentação de serviços de telecomunicações e de uso de radiofrequências da Agência Nacional de Telecomunicações (Anatel). A implantação e a exploração do PLC não poderão comprometer a qualidade do fornecimento de energia elétrica para os consumidores e, se houver necessidade de investimento na rede, o custo será de responsabilidade da empresa de telecomunicações. Embora seja utilizado o mesmo meio físico (as redes de distribuição de energia elétrica), a tecnologia permite o uso independente dos serviços e, portanto, a concessionária também vai poder usar a infraestrutura do prestador de serviço de PLC para atender às suas necessidades e interesses. Ao disponibilizar a sua rede de distribuição, a concessionária deverá dar ampla publicidade por um prazo mínimo de 60 dias para a manifestação de interessados. A escolha do prestador do serviço deverá ser divulgada em até 90 dias após o pedido.

Empresas de tecnologia temem armazenar suas informações na internet

O discurso de marketing dos fornecedores a respeito das maravilhas proporcionadas pelo cloud computing (computação em nuvem) não tem sido suficiente para estimular a adoção do modelo. Pelo menos é o que mostra um estudo realizado pela CIO nos Estados Unidos, o qual aponta que os decisores da área de tecnologia das organizações estão mais preocupados em entender os benefícios e os problemas de segurança ligados a esse tipo de modelo do que estavam há um ano.

O levantamento, realizado com 240 decisores de tecnlogia da informação ao longo do mês de junho de 2009, mostra que as dúvidas dos executivos em relação às questões de segurança, gestão de dados, retorno sobre investimento e legislação cresceram em comparação com a mesma pesquisa feita em agosto de 2008.

No atual estudo, 51% dos entrevistados disseram que estão preocupados com os problemas de segurança que podem ser gerados pela adoção da computação em nuvem. No levantamento realizado no último ano, esse índice era de 45%. Da mesma forma, a questão de perder o controle sobre os dados foi citada como um ponto negativo para 37% dos executivos que responderam à atual pesquisa, contra 26% em 2008.
Por fim, a preocupação sobre o cálculo do ROI (retorno sobre investimento) e do custo total de propriedade foi citada por 17% dos profissionais ouvidos no estudo recente – contra 11% no último ano.

Censo Demográfico 2010 será digitalizado

O Censo Demográfico 2010 do Brasil trará novos questionamentos à população, incluindo a pergunta se há computadores em casa com acesso à internet. Além disso, o próximo censo será o primeiro totalmente digitalizado.

O Instituto Brasileiro de Geografia e Estatística (IBGE) anunciou nesta terça-feira (1/9), no Rio de Janeiro, que cerca de 230 mil recenseadores terão um computador portátil e GPS (Global Positioning System) para trabalhar.
Aproximadamente 58 milhões de domicílios nos 5.565 municípios do Brasil receberão a visita de um recenseador para o Censo 2010.

O presidente do instituto, Eduardo Pereira Nunes, aponta que a informatização não será útil apenas na apuração dos dados, mas também em sua disseminação.
“O IBGE vai oferecer toda a informação ao usuário, que poderá cruzar os dados que desejar, de acordo com a variável de seu interesse. Além disso, os ministérios brasileiros poderão, com estes dados, traçar novas ações nas políticas públicas”, afirma.

Alguns cidadãos poderão responder ao questionário pela internet e, para isso é necessário receber as instruções e o código de acesso fornecido pelo recenseador do IBGE.

O questionário básico terá 16 perguntas e será aplicado em todos os domicílios brasileiros. O questionário da amostra terá 81 perguntas e será respondido por parte da população.

O Censo 2010 está previsto para começar no dia 1º de agosto de 2010. Depois de encerrado, cerca de 140 mil computadores portáteis que serão utilizados na pesquisa serão transferidos para o Ministério de Educação. Os equipamentos serão distribuídos para as redes de professores das escolas municipais.

sábado, 12 de setembro de 2009

GPS com localização em tempo real

Com múltiplas possibilidades, tais como proteção anti-furto e sequestro, detecção de cargas e controle de menores ou idosos, o GPS Tracker chega ao mercado brasileiro com a função de monitorar e localizar qualquer pessoa ou objeto em tempo real.
O aparelho portátil realiza os comandos de forma rápida, para pessoas ou produtos que tenham a necessidade de serem transportados para locais distantes. Tudo para evitar possíveis transtornos.

Com alta tecnologia agregada, o dispositivo envia sinais de dois em dois minutos informando seu posicionamento, horário, data, velocidade (se estiver no carro), nome de ruas ou avenidas e, inclusive, o som ambiente.
Para receber os dados, é necessário apenas cadastrar um número de celular no aparelho para onde serão direcionadas as coordenadas.

Uma das principais funções relativa à segurança pessoal é a opção “Pânico”. Quando ativada, ela envia informações de sua localização de forma silenciosa para até cinco números cadastrados, permitindo o acesso ao local em que o indivíduo está no exato momento do ocorrido.

Além disso, o produto permite a detecção da posição por regiões. O usuário pode delimitar uma determinada área e, caso o rastreador saia desse limite, o administrador recebe imediatamente a informação. O aparelho também auxilia o motorista, em trânsito, a manter-se dentro da faixa de velocidade permitida por lei.

A função “Alerta de movimento” possibilita que ele tenha o controle do limite em que o veículo está sendo conduzido. O monitoramento pode ser verificado gratuitamente através dos sites: www.gpsgate.com ou www.maps.google.com.br.

Disponível na loja virtual www.timevision.com.br, funciona com chip de qualquer operadora, com exceção da operadora Vivo, e está à venda pelo preço de R$ 1.399,99.



Unicoba lança produto mais fino

Apontador Slimway, com tecnologia Apontador, chega ao mercado com design inovador e a maior cobertura de mapas do país. A Unicoba (www.unicoba.com.br), empresa que atua no mercado de tecnologia há mais de 35 anos, lança o Navegador GPS Apontador Slimway, o aparelho mais fino e moderno do Brasil. Com a maior cobertura de mapas e mais de sete mil radares cadastrados, o lançamento chega para se tornar referência em navegação.

Novo software de compactação WinRAR 3.9 ganha velocidade

Uma nova versão de um dos mais populares aplicativos de compactação e criptografia está disponível em português. Segundo o desenvolvedor, o WinRAR 3.9 é mais veloz na compressão de arquivos em comparação com as versões anteriores, pois permite melhor aproveitamento da capacidade de processadores com mais de um núcleo.


Disponível em versões de 32 e 64 bits, o utilitário suporta os formatos mais populares de arquivos compactados (RAR, ZIP, CAB, ARJ, LZH, ACE, TAR, GZip, UUE, ISO, BZIP2, Z e 7-Zip) e é capaz de reconhecer e selecionar automaticamente o melhor método de compressão. Para proteção, utiliza chave de 128 bits e assinatura autenticada, oferecendo segurança no envio de dados confidenciais.
Há também a facilidade para dividir grandes arquivos, melhorando o transporte (para casos de envio por e-mail onde o administrador limita o tamanho dos anexos). Outra novidade é o conteúdo do menu, que pode ser acessado pelo Windows Explorer.
Embora costume ser baixado indistintamente de sites de P2P, o WinRAR não é um software livre. Sua licença custa 58 reais e pode ser adquirida, por download, da Siliconaction distribuidor oficial do utilitário para a América Latina.

Quem quiser baixar uma versão trial do aplicativo pode fazê-lo a partir do site do desenrolvedor (www.win-rar.com). Esta versão tem todas as funcionalidades ativadas por 40 dias. Depois deste prazo, o software pode continuar em uso, mas com restrições, como a possibilidade de criar arquivos executáveis que são descompactados sem a a ajuda do WinRAR.
O programa é compatível com todas as versões do Windows e, na versão não gráfica (comandos de linha) é compatível com Linux, DOS, OS/2, FreeBSD e MAC OS X.

Aplicações móveis em nuvem somam 1 bilhão de usuários até 2014

A consultoria ABI Research prevê que o número de usuários de computação em nuvens (cloud computing) em ambientes móveis crescerá em ritmo acelerado nos próximos 5 anos. O número de 42,8 milhões de assinantes em 2008 (1,1% de todos os usuários de telefonia celular) deve saltar para 998 milhões em 2014 (19%).
De acordo com Mark Beccue, analista sênior da ABI, a tendência indica que as aplicações móveis baseadas em cloud computing devem desbancar o atual formato consagrado pelas lojas online de aplicativos das fabricantes de celulares e smartphones.

Beccue afirma ainda que, até o ano que vem, o maior aumento será no total de assinantes móveis que utilizam softwares relacionadas à localização, como aplicativos de navegação e mapas. De acordo com o especialista, 60% dos usuários de serviços móveis baseados em cloud computing terão esse enfoque.
No entanto, outros aplicativos devem começar a ganhar espaço a partir de 2011, como suítes de produtividade para negócios, aplicativos de gerenciamento de vendas, softwares que controlam automação de ambientes físicos - de escritórios ou residências - e ferramentas de colaboração.

A ABI prevê, ainda, que 2010 será o ano em que os maiores fornecedores de plataforma como serviço, caso das norte-americanas Google, Amazon AWS e Force.com, tornarão mais agressivas as campanhas de marketing a favor de seus serviços móveis.

quarta-feira, 2 de setembro de 2009

Opera 10 Turbo é lançado em batalha contra Google e Apple

A norueguesa Opera Software lançou nesta terça-feira uma nova versão do seu navegador, o Opera 10, prometendo downloads mais rápidos. A Opera disputa a posição de terceira maior produtora de browsers com o Chrome, do Google, e o Safari, da Apple, mas está muito atrás da Microsoft e da Mozilla Foundation.

A fabricante informou que o novo navegador é significativamente mais rápido em páginas com muito recursos, como o Facebook. A Opera afirmou que a função Turbo para conexões lentas, que empacota páginas da web, torna o navegador até oito vezes mais rápido que os concorrentes em velocidades de acesso mais lento à web.

"Nós trabalhamos muito na tecnologia Opera Turbo e também fizemos importantes melhorias na estabilidade geral do produto. Este é o navegador Opera mais estável até agora", informou a companhia.

As produtoras de software normalmente lançam várias versões sucessivas de teste dos seus navegadores para que possam incorporar a reação do usuário em uma série de melhorias antes do lançamento final. A Microsoft apresentou seu último navegador IE8 em março, após um ano de testes com o público. A Opera lançou uma versão teste do navegador em 3 de junho.

O Internet Explorer, da Microsoft, é usado em cerca de 60% do tráfego global na internet, enquanto o Firefox, da Mozilla, responde por quase 30%. O uso do Opera, do Google Chrome e da Apple gira em torno de 3% cada, segundo a empresa de pesquisa StatCounter.

A Opera tem uma participação menor no mercado global de navegadores de desktops, mas seu produto é o mais popular em países como a Rússia ou Ucrânia. Além disso, o navegador móvel da companhia é o mais amplamente adotado em celulares.

O Opera 10 pode ser baixado a partir do endereço www.opera.com/browser/download/

Internet chega aos 40 anos com ameaças a seu crescimento

Poucos prestavam atenção, em 2 de setembro de 1969, quando cerca de 20 pessoas se reuniram no laboratório de Kleinrock, na Universidade da Califórnia (EUA), para assistir dois computadores passando volumosos dados de teste sem sentido por meio de um cabo cinza, cujo comprimento era de mais ou menos 15 metros.

Vídeos divertidos não estavam na mente de Len Kleinrock e sua equipe da Universidade da Califórnia, quando começaram os testes daquilo que, em 40 anos, se tornaria a internet. Tampouco as redes sociais eram pensadas, ou a maioria de outros aplicativos cujo uso fácil atrai mais de um bilhão de pessoas on-line.

Em outro viés, os pesquisadores procuraram criar uma rede aberta para a troca livre de informações --uma abertura que, em última instância, estimulou a inovação que mais tarde iria criar sites como YouTube, Facebook e a própria World Wide Web.

Há ainda muito espaço para inovação atualmente --mesmo que a noção de "abertura" esteja ruindo. Embora a internet esteja disponível de forma mais ampla e rápida do que nunca, as barreiras artificiais ameaçam a continuidade do seu crescimento. Em outras palavras, uma crise de meia-idade.

Muitos fatores são culpados. Spam e ataques de piratas virtuais forçam os operadores de rede para erguer barreiras de segurança. Regimes autoritários bloqueiam o acesso a muitos sites e serviços dentro de suas fronteiras.

"Há mais liberdade ao usuário típico de internet para jogar, para se comunicar, fazer compras --mais oportunidades do que nunca", afirma Jonathan Zittrain, professor de direito e cofundador da Harvard's Berkman Center for Internet & Society. "Por outro lado, que é preocupante, existem algumas tendências de longo prazo que estão fazendo com que seja muito mais possível o controle [da informação]".



Retrospecto

A década de 1970 trouxe comunicações por e-mail e os protocolos TCP/IP --inovações que permitiram a conexão de várias redes e que, por sua vez, formaram a internet. Os anos 1980 deram origem a um sistema de endereçamento com sufixos como ".com" e ".org", aos endereços de rede, cujo uso é amplamente difundido atualmente.

A internet não se tornou uma palavra corriqueira até os anos 1990. Porém, depois que um físico britânico Tim Berners-Lee inventou a World Wide Web (subconjunto da internet que facilita a ligação de recursos por meio de posições diferentes). Enquanto isso, prestadores de serviços como o America Online colocaram milhões de pessoas conectadas, pela primeira vez.

A obscuridade ajudou com que a internet florescesse livre de restrições regulamentares e comerciais, que podem desestimular ou mesmo proibir experimentação.
"Durante a maior parte da história da internet, ninguém tinha ouvido falar dela", disse Zittrain. "Isso deu tempo para que ela se provasse funcional e criasse raízes."

Até mesmo o fluxo livre de pornografia levou a inovações na rede, como os pagamentos de cartão de crédito, o vídeo on-line e outras tecnologias, hoje bastante difundidas no uso geral.
"Ao permitir o acesso ilimitado, mil flores florescem", diz Kleinrock, o inventor da rede em 1969, que é professor da Universidade da Califórnia desde 1963. "Uma coisa que você pode prever sobre a internet é que você vai se surpreender com aplicativos que não esperava."

Esse idealismo, entretanto, está se dissolvendo.

A disputa entre Google e Apple mostra algumas dessas barreiras. A Apple, com seu iPhone, restringe os softwares que podem ser colocados no smartphone. Recentemente, a empresa de Steve Jobs bloqueou o aplicativo para o Google Voice, dizendo que ele é muito pesado para o iPhone. Céticos, contudo, sugerem que se trata de um movimento do Google para competir no serviço de celulares inteligentes.

Entre desktops, o governo dos EUA trabalha com o conceito de "neutralidade na internet". Na prática, significa que um provedor de serviços pode não trafegar certas formas de dados como outros.

Mesmo que os prestadores de serviços não interfiram ativamente com o tráfego, podem desencorajar o uso dos consumidores irrestrito da internet com limites no uso de dados mensais. Alguns provedores de acesso estão testando limites drasticamente mais baixos ---que poderiam significar um custo adicional para assistir a um filme on-line de qualidade.

"Você está menos propenso a experimentar as coisas", diz Vint Cerf, um dos fundadores da Internet. "Porque ninguém quer uma fatura surpreendente no final do mês."

quarta-feira, 19 de agosto de 2009

Portugal terá 1ª conexão de 1 Gigabit por segundo da Europa

A operadora Zon anunciou que Portugal será o primeiro país na Europa com internet de 200 Mbps e 1 Gbps. Assim que os testes forem concluídos, os portugueses terão as duas novas velocidades de acesso à rede disponíveis nas residências. O lançamento está previsto para setembro, segundo a versão online do diário Jornal de Negócios.
A empresa divulgou um comunicado em que afirma que os novos produtos colocam Portugal na lista de países mais avançados do mundo em termos de acesso à internet. Até a chegada do lançamento ao mercado, a Cabovisão é a empresa que oferece a maior velocidade, de 120 Mbps.
As novas velocidades serão comercializadas sob a marca Zon Fibra, em zonas pré-selecionadas ainda não divulgadas pela operadora.

segunda-feira, 17 de agosto de 2009

Próxima versão do Office para Mac virá com Outlook

A Microsoft vai, finalmente, levar o cliente de correio eletrônico Outlook para a plataforma Mac na próxima versão do Office, prevista para lançamento no final de 2010. Até então, usuários dos computadores da Apple precisavam usar o Entourage, um aplicativo similar da Microsoft para organizar seus e-mails, agenda e calendário.
O Outlook para Mac deve ampliar os recursos de integração com a plataforma Exchange, que gerencia e-mails, contatos, agenda e calendários de usuários corporativos. O programa, de acordo com a unidade de negócios Mac da Microsoft, será feito a partir do zero, com um novo sistema de banco de dados e recursos de acesso limitado a determinadas informações no programa.
Enquanto o Office 2010 não sai, a Microsoft anunciou hoje uma nova versão do Office 2008 para Mac, chamada "Business Edition", com novos recursos que já devem aumentar a integração com Exchange ("Entourage 2008 Web Services Edition") e o Document Connection for Mac, um programa que ajuda a compartilhar informações nas plataformas SharePoint e Office Live Workspace da Microsoft.
Essa versão corporativa será vendida nos Estados Unidos a partir de setembro por US$ 399,95 e complementa as versões Home e Student, já existentes.

segunda-feira, 27 de julho de 2009

Brasil finca bandeira no Twitter

Brasil finca bandeira no Twitter

Este é o espírito do Twitter, no qual o Brasil se tornou líder mundial (proporcional ao número de internautas em cada país) desde o mês passado, totalizando 15 milhões de usuários. É também dos brasileiros a liderança no tempo médio gasto no site, com 36 minutos de navegação sete vezes por semana. Em segundo lugar aparecem os norte-americanos com 31 minutos, seguidos pelos britânicos, com 25. Mas, que mania é essa? Como está mexendo com a vida dos brasileiros? Como pode ajudar na hora de encontrar emprego? O uso indevido do Twitter pode prejudicar a carreira de alguém? Estará a segurança das pessoas ameaçadas pela ferramenta? Como se comportar nessa nova rede?

O Twitter é uma rede social em formato de microblog. Traduzindo: o usuário publica os comentários que quiser, inclusive de natureza pessoal, que podem ser lidos por seus seguidores. Mas, cada mensagem só pode ter 140 caracteres, incluindo o endereço de algum link na Internet que queira divulgar. No microblog não podem ser postadas fotos e vídeos diretamente, como no Orkut, Facebook e outras redes sociais, contudo, o usuário pode postar links para suas fotos armazenadas em outros serviços, como o Flickr.

O tamanho reduzido das mensagens facilita a leitura e a maioria dos usuários tem como meta multiplicar seus seguidores, o que indica seu grau de visibilidade e até favorece negócios.
Daí a explicação para as centenas de empresas brasileiras que todos os dias abrem seus espaços no Twitter. Por meio da ferramenta, mandam mensagens a consumidores e outros públicos com os quais querem se comunicar.

Cuidado que se justifica pela grande migração de brasileiros para o Twitter na hora de pesquisarem sobre produtos e serviços. “O microblog é o que mais cresceu no Brasil desde janeiro quando o assunto é opinião do consumidor”, destacou o CEO da E.Life, Alessandro Barbosa Lima. A empresa monitora e analisa dados na Web, inclusive é contratada por grandes marcas para acompanhar o que é falado sobre elas nas redes sociais.

Hoje, cerca de 40 empresas mantêm contratos com a E.Life para acompanhamento de comentários por parte dos consumidores, funcionários e até da concorrência nas redes sociais.

“Esse boca-a-boca virtual é cada vez mais importante e não pode ser desprezado pelas companhias”, assinala Lima. Por meio do que é dito, podem agir mais depressa tanto na melhoria dos serviços e produtos quanto no aprimoramento de sua comunicação com clientes. O setor de Serviço de Apoio ao Consumidor responde por cerca de 60% dos serviços demandados ao E.Life, seguido pelos setores de Vendas, Marketing e Comunicação e de Recursos Humanos.

A preocupação das empresas em relação à imagem em redes sociais, em especial o Twitter, se justifica pelo peso das opiniões postadas nestes sites. A Pesquisa de Consumidor da Nielsen Online, divulgada na semana passada, aponta que nove entre cada dez consumidores de todo o mundo (90%) confiam nas sugestões de pessoas conhecidas e 70% na opinião de consumidores expressa em meio on line.

No caso do setor de Recursos Humanos, a principal preocupação, seja via serviços da E.Life ou empresas similares, é com relação ao comportamento dos seus funcionários no mundo virtual, com ênfase em comentários que possam fazer sobre a corporação onde trabalham, à sua chefia imediata e aos colegas.
“Como é uma ferramenta nova, muitos profissionais ainda assumem postura ingênua e não têm percepção da visibilidade que alcançam em um site como o Twitter”, alerta a psicóloga e coordenadora da área de Gestão de Carreiras da Faculdade de Informática e Administração Paulista (FIAP) e da Faculdade Módulo, Janete Teixeira Dias. “Falar mal da empresa em que trabalha ou do chefe num site desses é pedir para ser demitido”, afirma.

A especialista lembra que mesmo quem quer trocar de emprego deve buscar uma forma mais civilizada de romper com o contrato de trabalho, afinal, “o dia de amanhã é uma incógnita para qualquer profissional.”

Symantec tenta reverter fama de pesado do antivírus Norton

Apesar de ser um dos pacotes de segurança mais conhecidos do mercado, o Norton, da Symantec, convive com a má fama de ser um software muito pesado, que pode prejudicar a performance do computador.
A empresa reconhece essa falha em edições anteriores e, na versão mais recente do software, a 360, houve melhorias consideráveis de performance.
Para ter contato direto com os consumidores e responder a eventuais críticas, a Symantec investe na presença em redes sociais, como o Facebook e o Twitter.
Mesmo se conseguir derrotar a pecha de software pesado, o Norton ainda tem muitos competidores com os quais se preocupar.
Além da McAfee, uma de suas principais concorrentes, o Norton precisa enfrentar a competição cada vez mais acirrada com as vastas opções de pacotes de proteção gratuitos, como AVG, Avira e Avast.
Segundo Abelino Ochoa, diretor de vendas a consumidores da Symantec para a América Latina, os preços dos produtos da empresa foram reduzidos de acordo com a realidade econômica da região.
Softwares que antes custavam mais ou o mesmo do que se cobrava nos EUA sofreram redução de preço recentemente --uma medida que também visa a combater a pirataria.

terça-feira, 21 de julho de 2009

Capes aprova a nova classificação do Qualis

Após a nova classificação da maior parte das áreas do conhecimento, o Qualis, sistema de avaliação de periódicos e anais de eventos da Capes, tem uma nova escala de análise. O anúncio foi feito na reunião do Conselho Técnico-Científico realizada em março 2009 em Brasília.

A nova estratificação transforma está baseada no cruzamento de dados sobre a circulação dos veículos de publicação da produção científica (local, nacional e internacional) e a sua qualidade em uma nova escala formada por oito extratos (A1, A2, B1 a B5 e C). O extrato C tem peso zero.

O Qualis é o conjunto de procedimentos utilizados pela Capes para condicionar da qualidade do veículo da produção intelectual dos programas de pós-graduação. Tal processo foi concebido para atender as necessidades específicas do sistema de avaliação e é baseado nas informações do Coleta de Dados da Capes. O Qualis apresenta uma lista de periódicos e anais de eventos reportados pelos programas de pós-graduação como relevantes e que serão considerados na avaliação de sua produção bibliográfica destes programas.

Nesta reunião , 41 novas áreas de atuação ou re formulações de áreas existentes tiveram suas classificações homologadas. Esta avaliação é referente ao ano-base 2007. Ainda este ano será anunciada a avaliação do ano-base 2008 .

O portal do Qualis é o http://qualis.capes.gov.br/webqualis/

sexta-feira, 17 de julho de 2009

Cópias do Office 2010 vazam em sites de compartilhamento de arquivos

A nova versão do Office 2010, pacote de produtividade da Microsoft que foi lançado nesta segunda-feira (13/7) já tem sido distribuída em sites de compartilhamento de arquivos na internet.
Em uma pesquisa feita no domingo (12/7), diversos sites de torrent, incluindo o buscador Mininova.org, oferecem a versão 14.0.4302.1000 do Office 2010, tanto nas edições de 32 bits como de 64 bits.
Na madrugada desta segunda-feira, sites de compartilhamento contavam 30 usuários oferecendo cópias do Office 2010 e 400 fazendo o download de partes do programa. Cerca de 1.200 cópias foram baixadas.
O Office 2010 já vazou na internet em maio, uma semana antes do anúncio de uma versão técnica prévia do pacote pela Microsoft. A versão final do produto está prevista para a primeira metade de 2010.
De acordo com diversas fontes e sites de tecnologia, a Microsoft lançou a versão do Office 2010 a um grupo restrito de convidados nesta segunda-feira durante o evento Worldwide Partner Conference (WPC), em Nova Orleans, nos Estados Unidos. Além disso, a empresa deve apresentar uma versão do Office Web - pacote de produtividade mais leve com versões online dos programas Word, Excel, PowerPoint e OneNote - para concorrer com o Google Apps.
A versão do Office 2010 será oferecida somente a convidados. O anúncio antecede o lançamento da versão beta do pacote, que será distribuída no final do ano.

segunda-feira, 13 de julho de 2009

Google lança recurso que filtra imagens por direitos autorais

O Google lançou na quinta-feira (9/7) um recurso em seu buscador que permite aos usuários pesquisarem por imagens de acordo com seus direitos autorais.
O filtro pode encontrar imagens que têm tags para as diversas licenças de uso do sistema Creative Commons, GNU Free Documentation e as que são de domínio público.
Para usar o recurso, os internautas devem usar a pesquisa avançada de imagens do Google. Sob a opção “Usage rights”, é possível selecionar qual tipo de licença o usuário busca, restringindo os resultados à sua escolha.
As opções incluem tags para reutilização – comercial ou não – e reutilização que permite modificações no arquivo original.

quinta-feira, 9 de julho de 2009

Opera estreia serviço de compartilhamento


Opera estreia serviço de compartilhamento


A Opera Software apresentou uma nova ferramenta grátis que permite o compartilhamento de conteúdo entre quaisquer internautas.

A novidade, que segundo a companhia "reinventará a web", é parte do navegador Opera. Por meio do novo serviço ferramenta, é possível tranferir imagens, arquivos ou música diretamente de um computador pessoal para outro, sem a necessidade de servidores de armazenamento intermediários.

Tecnologias semelhantes estão disponíveis para internautas experientes, mas exigem o download de um software separado, são pagas ou demoram para carregar o conteúdo.

"Acreditamos que isso é a revolução da internet. Esta é um tecnologia que expande as fronteiras dos serviços online e vai evoluir nos próximos cinco anos", declarou Phillip Gronvold, analista de produto da Opera.

"Esperamos que esse serviço nos ajude a ampliar nossa base de usuários a partir de desktops", Gronvold acrescentou.

Fonte: Info Online

terça-feira, 16 de junho de 2009

Google lança banco de dados para rivalizar com Oracle, IBM e Microsoft

Fusion Tables é banco de dados online com nova tecnologia que uniformiza diversos tipos de dados e promete economia àsempresas.

O Google lançou silenciosamente, na terça-feira (9/6), um novo banco de dados online chamado Fusion Tables, com o objetivo de revolucionar o gerenciamento de dados.

A idéia é driblar as limitações dos bancos de dados tradicionais e simplificar as operações de relacionamento de informações. O Google afirmou que, com a implementação em cloud computing<http://idgnow.uol.com.br/computacao_corporativa/2009/04/15/saiba-quais-dados-voce-pode-levar-para-a-cloud-computing/>,simplificará também a possibilidade de colaboração em grupos de dados.
“Sem um jeito fácil de oferecer acesso a todos os colaboradores ao mesmo servidor, os dados são copiados e enviados por e-mail e FTP, resultando em várias versões que saem de sintonia rapidamente”, diz o anúncio do Google<http://googleresearch.blogspot.com/2009/06/google-fusion-tables.html>.

O Fusion Tables também oferece uma tecnologia de espaço de dados, conceito que existe desde os anos 90 e o Google, percebendo seu potencial, o desenvolve desde a compra da Transformic, em 2005, que é uma pioneira da tecnologia.

O esquema de 'espaço de dados' tenta resolver o problema de vários tipos e formatos de dados nas empresas, que gastam muito em dinheiro e esforços paratorná-los uniformes, com o objetivo de armazená-los e analisá-los em bases de dados convencionais.

Os 'espaços de dados' preveem um sistema que cria um índice para oferecer acesso a dados de vários tipos e formatos, resolvendo o problema que o Google chama de “Torre de Babel”.

A tecnologia permite que o Google inclua, nas tabelas bidimensionais tradicionais de base de dados, uma terceira coordenada com elementos como reviews de produtos, posts e mensagens do Twitter, além de uma quarta‘dimensão’ de atualizações em tempo real.

“Agora temos um espaço com quatro dimensões onde podemos incluir novas perguntas para criar novos produtos e oportunidades de marketing”, diz o anúncio. “Se você é a IBM, a Microsoft e Oracle, seu pior pesadelo está vivo. O Google irá criar espaços de dados automaticamente e implementar novos tipos de pesquisas.”

O Fusion Tables é uma versão prévia do produto, e carrega a marca “Labs” de produto experimental do Google.

Fonte:http://idgnow.uol.com.br/computacao_corporativa/2009/06/12/google-lanca-base-de-dados-para-rivalizar-com-oracle-ibm-e-microsoft/

sábado, 30 de maio de 2009

Site lista 10 lançamentos mais frustrantes da década

O site 24/7WallSt.com listou 10 lançamentos de tecnologia que, considera, foram as maiores frustrações da última década. A seleção inclui a Palm e o site de vídeos YouTube, assim como o player Zune da Microsoft e o HD-DVD, entre os gadgets e tecnologias que não fizeram o sucesso esperado. Para o site, são exemplos de diversos dos mais bem financiados e anunciados lançamentos de tecnologia na última década que terminaram em fracasso.

Para entrar na lista, explica o artigo, o produto ou companhia tinha que ser amplamente conhecido e disponível para o público, dirigido para um grande mercado global. Tecnologicamente igual ou superior aos competidores, também tinha que ter a possibilidade de render bilhões de dólares com base nas vendas de produtos similares ou concorrentes. Finalizando, precisaria não ter alcançado o potencial que seus criadores esperavam - e que o público e a imprensa foram levador a crer que era possível. Confira os dez itens.

1- Vista

O Microsoft Vista foi lançado mundialmente em 30 de janeiro de 2007, e era a mais recente geração do carro-chefe da maior empresa de software do mundo. Criado para aperfeiçoar a segurança do sistema operacional mais usado no mundo, suas funções não eram muito melhores que as das versões anteriores do Windows, diz a maioria das resenhas sobre o software. O Vista também não era compatível com diversos PCs mais antigos, o que limitou o número de usuários dispostos a fazer um upgrade da versão anterior, o XP. Muitos analistas disseram que o Vista também roda mais devagar no PC do que o XP. Estes e outros fatores fizeram com que o Vista não fosse visto como realmente melhor que seu predecessor. De acordo com a Net Applications, em abril o Vista rodava em 24% do mercado global de PCs e o Windows XP, 62%.

2- Gateway

A Gateway, fundada em 1985, foi uma das mais bem sucedidas companhias de PC nos Estados Unidos. Suas vendas quadruplicaram em 1990 e em 2004 era a terceira no mercado norte-americano, atrás da HP e da Dell, e tinha 25% do varejo de PCs. Mas três anos depois estava em tão má forma que a Acer pode comprá-la por US$ 710 milhões. O fracasso da Gateway pode ser creditado a diversos fatores, comçando pela relutância em entrar no negócio de laptops. Seus negócios em desktops eram fortes na primeira parte da década, mas ela não entrou em computadores portáteis com a velocidade dos concorrentes. Também demorou a entrar nas vendas de PCs para empresas. A Gateway tentou diversificar entrando no mercado de eletrônicos de consumo, mas os lucros foram pobres e a decisão apenas feriu ainda mais as margens da empresa.

3- HD-DVD

O HD-DVD era um dos dois formatos para os DVDs de alta definição, o outro era o Blu-ray. Defendido pela Toshiba e Nec foi lançado em 2006. Segundo analistas, a companhia gastou quase US$ 1 bilhão antes de abandoná-lo, em 2008. Há diversas razões para o HD-DVD ter perdido a batalha para o Blu-ray, da Sony. Uma das mais mais citadas é que a Sony fez um trabalho melhor convencendo os grandes estúdios de cinema (aliás, ela é dona de um dos maiores) a lançarem seus filmes em alta definição no formato Blu-ray. Para os analistas, o Blu-ray ganhou a briga ao conquistar o apoio da Warner Brothers.A Toshiba também tem diversas razões para explicar o fracasso do formato, e uma das mais citadas é que o negócio de downlad de vídeos baixou as vendas dos tocadores de DVD - mas isso deveria ter prejudicado igualmente o HD-DVD, diz o site. Não há análises definitivas sobre porque o Blu-ray sobreviveu e o HD-DVD, não. Mas, diz o site, uma coisa é certa. A Sony estava disposta a continuar investindo mesmo que o futuro dos discos de alta definição não estivesse assegurado - e este risco segue existindo, pois o Blu-ray ainda não é padrão nos sistemas de entretenimento doméstico.

4- Vonage

A Vonage pode ser considerada a avó da tecnologia de voz sobre IP (VoIP). Hoje, diz o site, está relegada a uma nota de rodapé no crescimento da indústria atualmente dominada por produtos de operadoras e serviços gratuitos como o Skype, que tinha 450 milhões de usuários registrados no final de 2008 e receita de US$ 551 milhões. A eBay, dona do Skype, planeja fazer oferta pública de ações da companhia no primeiro semestre de 2010. No primeiro trimestre deste ano, a Vonage foi teve lucro mínimo com receita de US$ 224 milhões, um achatamento se comparado ao mesmo período do ano anterior.Usando capital de risco, a Vonage anunciou agressivamente seus serviços como uma alternativa barata aos telefones padrão. E foi tão bem sucedida que levantou US$ 531 milhões com uma oferta pública de ações em maio de 2006, com preço de oferta de US$ 17. Sete meses depois, pressionada pela concorrência do cabo e ganhos pobres, valia US$ 1. A Vonage também enfrentou processos em função de patentes que lhe custaram dezenas de milhares de dólares. A Vonage não cresce; em contraste, a gigante dos cabos Comcast hoje tem 6,8 milhões de clientes VoIP e ganhou quase 300 mil no último trimestre.

5- YouTube

O YouTube é o maior site de compartilhamento de vídeo do mundo. De acordo com a ComScore, 99,7 milhões de usuários nos Estados Unidos viram 5,9 bilhões de vídeos no YouTube em março deste ano. O Google comprou o YouTube em novembro de 2006 por US$ 1,55 bilhão e há uma grande chance de que a companhia nunca venha a ter retorno deste investimento: o canal de vídeo não mostrou um modelo para ganhar dinheiro nem com venda de anúncios nem cobrando por conteúdo premium, mesmo que tenha imensa audiência e enorme quantidade de conteúdo. Grande parte dos vídeos postados tem tão pouca qualidade, diz o site, que os anunciantes se mostram relutantes em ligá-los às suas mensagens.O Google já disse que o lucro do YouTube "não é material". A Forbes estima que as vendas de 2008 do site foram de US$ 200 milhões. Bear Stearns coloca o lucro doméstico do YouTube em 2008 em US$ 90 milhões. Recentemente, o Credit Suisse estimou que o YouTube vai perder US$ 470 milhões este ano principalmente por causa do custo de armazenamento e largura de banda necessários. O The New York Times escreveu recentemente que "enquanto o YouTube, assim como outras marcas da nova mídia como MySpace, Facebook e Twitter, é visto como líder no desafio às companhias de mídia tradicionais, a empresa se esforça para lucrar com sua popularidade digital". Ou seja, diz o site, o YouTube é grande, mas isto não faz dele um sucesso.

6- Sirius e XM

O rádio via satélite Sirius XM supostamente seria um dos mais bem sucedidos dispositivos eletrônicos de consumo de todos os tempos. Inicialmente, o serviço foi planejado para não ter comerciais.O assinante poderia ouvir mais de cem estações de costa a costa ao volante de seu veículo ou usando uma versão portátil do dispositivo.Em setembro de 2001 a XM Satellite Radio lançou seu serviço. No fim do ano, tinha quase 28 mil assinantes, que passaram a 350 mil no final de 2002 e somavam 5,9 milhões no final de 2005. Neste período, a companhia acumulou centenas de milhares de dólares em débitos para cobrir despesas de capital, déficit operacional, de vendas e custos de marketing. Analistas imaginavam que ela seria altamente lucrativa assim que chegasse a mais de 10 milhões de assinantes. A rival da Sirius lançou seu serviço em julho de 2002. Nos cinco anos seguintes, teria um pouco menos de assinantes que a XM Satellite Radio, mas cresceria quase tão rápido quanto aquela. E a Sirius também se endividou para suportar as operações. Em fevereiro de 2007, rendendo pouco, as duas companhias anunciaram a fusão. A Comissão Federal de Comércio analisou o pedido por 13 meses, enquanto as companhias sangravam. O crescimento de assinantes estava em ritmo bem mais lento, principalmente por causa dos novos e mais populares dispositivos de entrentenimento como o iPod da Apple e celulares multimídia. No primeiro trimestre de 2009, o número de assinantes para os serviços combinados caiu para 400 mil ante os 18,6 milhões registrados no trimestre anterior. Nem a Sirius nem a XM renderam sequer dez centavos.

7- Zune

A Microsoft lançou seu tocador Zune em novembro de 2006, acreditado que poderia competir com o iPod da Apple, que estava no mercado desde 2001 e dominava os negócios de tocadores multimídia e download de músicas. A Apple já vendera mais de 100 milhões de iPods quando o Zune chegou ao mercado. A companhia de Bill Gates podia conseguir acordos de licenciamento com os quatro maiores selos musicais.As vendas foram terríveis nos nos primeiros meses após o lançamento. Segundo a Bloomberg Television, do lançamento até a metade de 2007, apenas 1,2 milhão de Zunes haviam sido vendidos. Em maio de 2008, a Microsoft anunciou ter vendido 2 milhões de unidades desde o lançamento. O The Wall Street Journal noticiou que o Zune rendeu US$ 85 milhões durante a temporada de festas de 2008 comparados aos US$ 185 milhões do mesmo período no ano anterior. O iPod rendeu, no último trimestre de 2008, US$ 3,37 bilhões. Na análise do site, a Microsoft, com acesso a especialistas em desenvolvimento de hardware como qualquer outra companhia e capital para suportar orçamentos maciços para lançar novos produtos, falhou completamente em sua tentativa de pegar parte do grande mercado do iPod.

8- Palm

A Palm produzia tanto um dispositivo portátil sem fio e um sistema operacional para dispositivos portáteis e desktops. Em 1996, lançou o Palm Pilot como um organizador pessoal. Em 1999, lançou o Palm V. O smartphone Palm Treo foi desenvolvido pela Handspring, que a Palm comprou. No penúltimo trimestre de 2007, a Palm vendeu 470 mil unidades do Treo, 160% acima do mesmo período no ano anterior.Neste ponto, três companhias dominavam o mercado de smartphones: Palm, Research in Motion - fabricante do Blackberry, e a Nokia. No penúltimo trimestre de 2007, as vendas do Treo tinham passado a 689 mil unidades, mas as do Blackberry chegaram a quase 3,2 milhões e o recentemente lançado iPhone da Apple vendeu mais de um milhão de unidades no mesmo período após seu lançamento em 29 de junho.A Palm, uma das pioneiras no mercado de smartphones, não foi capaz de continuar seu sucesso, diz o site. Alguns analistas apontam o fato de a Palm ter demorado para perceber que os consumidores queriam voz e dados sem fio no mesmo aparelho. A empresa também sofreu com atrasos em seus produtos. A companhia, diz o site, parece não ter conseguido traduzir sua liderança em um tipo de dispositivo para o outro.

9- Iridium

A companhia global de telefonia via satélite Iridium chegou à bancarrota em 1999, depois de gastar US$ 5 bilhões para construir e lançar sua infra-estrutura de satélites para oferecer serviço mundial de telefonia sem fio. Para funcionar apropriadamente, o sistema necessitava de 66 satélites. A criação deste enorme sistema ajudou a endividar a companhia, e o serviço angariou apenas 10 mil assinantes. Em parte, isso se deveu às dificuldades técnicas com os primeiros dispositivos. Segundo um estudo de caso da história da Iridium, feito pela Darthmour Tuck Business School em 1998, a companhia previa ter 500 mil assinantes no ano seguinte. Mas o serviço era caro para os assinantes e o negócio da telefonia celular tinha começado a tomar conta com infra-estrutura instalada na maior parte dos países desenvolvidos. O serviço de celular não estava globalmente distribuído mas era de longe mais barato.As dificuldades de tecnologia também tornaram o serviço da Iridium impopular: os assinantes não conseguiam usar o serviço dentro dos seus carros, em prédios e em muitas áreas urbanas.

10- Segway

O Segway foi lançado em 2002. "Ele será para o carro o que o carro foi para o cavalo", disse o chefe da companhia, que investiu cerca de US$ 100 milhões no desenvolvimento do veículo de trasporte pessoal de duas rodas no qual o usuário, de pé, controla o dispositivo também com o equilíbrio do próprio corpo. Mas a Segway não entendeu que o preço do seu "patinete eletrônico" - em torno de US$ 3 mil para a maioria dos modelos e de US$ 7 mil para outros - era muito alto para criar uma base massiva de consumidores. Outro grande imprevisto é que o Segway em alguns países foi classificado como um veículo de estrada e seu uso requer licença, enquanto em outros lugares é ilegal usá-lo em rodovias. De 2001 até o final de 2007, a companhia vendeu apenas 30 mil unidades do Segway.

terça-feira, 26 de maio de 2009

Criador de Prison Break fala sobre o final da série em entrevista

“Prison Break” terminou, infelizmente, na última sexta-feira dia 15 de maio, depois de 4 anos de fugas e muita ação. A tristeza da maioria dos fãs, ficou por conta da morte de Michael. Outros por outro lado gostaram do fim trágico por achar que esse fim torna o season finale da série inesquecível e diferente de tudo.

Foram ao todo, até aqui, 81 episódios de uma série que vai deixar saudades. Prison Break chegou ao fim nesta 4º temporada no 22º Episódio “Killing Your Number”. A série é uma das mais baixadas na internet em todo mundo e teve grande divulgação quando redes públicas de tv passaram a exibi-la, como a Rede Globo no Brasil.

Veja a entrevista com o criador da série, Matt Olmstead:


Em que ponto, durante os quatro anos de fuga, você decidiu que Michael morreria no final?
Matt Olmstead: No começo dessa temporada, nós tivemos um debate sobre isso. Eu estava em NYPD Blue e eu cheguei na sexta temporada, que era a última participação de Jymmy Smits – e foi uma das melhores coisas da televisãode todos os tempos. Eles tiveram o pensamento de quando um personagem é tão amado, e você escreve um futuro seguro pra ele, os telespectadores vão te odiar, porque não vão ter a chance de ficar de luto. Então vamos mostrar logo que o personagem tem um problema de saúde. David, criador de NYPD Blue fez isso de forma brilhante com Jymmy, e eu sempre me lembrei disso. Então quando me encontrei com ele depois de um evento, nós nos perguntamos: “Michael vai sobreviver?”. De qualquer forma vamos colocar seu nariz sangrando no primeiro episódio. Dessa forma nós de certa forma sugerimos que existia alguma coisa, e isso também nos deu a oportunidade de algumas cenas – se nós quisessemos seguir por essa linha – onde Sara poderia ficar lamentando isso, Lincoln poderia ficar alerta, assim como os espectadores. Assim eles também tem a chance de lamentar a perda.



O que Wentworth Miller achou disso tudo?
No final as contas ele gostou. Eles ouviu rumores, e quando o script saiu, eu recebi um e-mail de comprimentos dele, porque ele viu o mérito disso. A idéia de Michael não sobreviver veio de uma conversa minha e dele na segunda temporada. Ele disse naquele momento que as mãos de Michael estavm tão sujas como qualquer outra, e isso foi algo que mostramos ao longo do caminho, o acúmulo da culpa. “Eu tirei meu irmão da prisão, o que incluiu morte de pessoas” – nem o ator, nem o personagem desprezavam ou ignoravam isso. Então a idéia do finale dele não conseguir e todo mundo conseguir foi o final certo para ele como ator. Um final com Michael e Sara rumo ao por do sol seria como um, “Hey, bom pra vocês pessoal”.


Mas a emissora lutou contra você sobre a morte, certo?
Estava dividido aqui, metade das pessoas queria ver Michal e Sara juntos, e a outra metade viu mérito em Michael não sobreviver. Assim que eles viram o script, eles concordaram de forma unilateral que essa era a coisa certa a se fazer.


Devemos notar que Michael está vivo no DVD que será lançado dia 21 de julho, “Prison Break: The Final Break”.
Certo. The Final Break se passa logo depois de todos serem exonerados, então nós voltamos no tempo e vemos Michael vivo.


Vamos falar sobre os retornos. Paul Adelstein previa seu telefonema? Eu sempre falei que Kellerman resurgiria algum dia.
Eu procurei ele ocasionalmente, e falei: “Um dia você vai receber um telefonema”. Ele sempre esteve entusiasmado sobre isso. Nós não sabíamos, obviamente, que história seria, mas nos queríamos guardá-la para o season finale.




Rockmund Dunbar (C-Note). Eu tive que imaginar, foi uma surpresa maior.
Eu acho que sim. Nós sabíamos que esse era o final, e quem nós, os roteiristas, queríamos de volta? Quem traria um impacto para os espectadores? Nós não queríamos trazê-lo de volta somente por trazer , nós queríamos trazê-lo para uma mudança na história.


Vocês chegaram a considerar trazer Patricia Wettig (Presidente Caroline Reynolds) de volta?
Não, não. Esse personagem estava acabado.

Não existia nenhuma das várias atrizes Maricruz disponíveis?
Nós pensamos nisso, mas o que realmente vimos era ela provavelmente segurando sua filha, ou falando uma linha. Não valia a pena – e eu duvido que a atriz ficaria interessada também.

Robert Knepper declarou que o destino do T-Bag era o melhor de todos.
Eu achei muito poético. Para nós,produtores, foi a combinação certa para as pessoas terem uma sobremesa, um doce surpresa e tragédia. As pessoas falavam que nós não podíamos deixar T-Bag solto, que nós não poderíamos fazer uma versão de Hannibal, porque isso colocaria uma marca negra no Michael, por ele ter solto esse monstro no mundo. E não poderíamos matá-lo porque seria irônico, já que ele foi tão amado pelo público. Então colocamos ele de volta aonde ele começou, mas com dor no coração. Ele ouve coisas sobre a Gate e desperta sua imaginação. Isso o faz lembrar o que ele quase teve.


Foi interessante a reviravolta romântica com Mahone.
Essa foi uma das surpresas. Aqui estava ele, mandando um cartão de aniversário para sua ex-mulher, agora que ele estava com sua ex-parceira do FBI, Felicia Lang. Nós disponibilizamos mais informações sobre isso no DVD The Final Break.


A última vez em que nos falamos, você disse que a remoção das tatuagens de Michael foi o seu momento de menos orgulho. Olhando para trás, na maneira que o show decorreu, do que você mais se orgulha?
A coisa que mais me orgulha é que a equipe de roteiristas foi praticamente a mesma durante esses quatro anos. Tem pessoas que estão lá desde o início, e ficaram até o fim (Zack Estrin, Nick Santora, Karyn Usher), e nós tivemos outros roteiristas que passaram de assistentes para a equipe (Seth Hoffman, Kalinda Vazquez, Christian Trokey)...Foi um grupo muito unido, e tudo era feito coletivamente, porque é como se faz uma série. Todo esboço foi apresentado como um grupo, cada roteiro foi apresentado como um grupo, todo corte foi assistido como um grupo,...Nós tinhamos que ver as pessoas envolvidas e ver as pessoas se envolver, florescer e se envolver, a como uma luxúria para mim, eu tive oito pessoas que eram boas rebatedoras. No início dessa temporada, nós estávamos em uma encruzilhada com a emissora e o estúdio - foi no pós-greve, um processo acelerado - sobre o que iríamos fazer, e todos entraram de cabeça e nós resolvemos



Existe algum número de audiência do season finale que faria a FOX exibir o “The Final Break”?
Eu realmente não sei. Eu nem sei se eles chegaram a vê-lo, já que estão super ocupados preparando os lançamentos do dia 18 de maio. Mas nós estamos realmente orgulhosos do DVD, e esperamos que isso aconteça.

Fim da série Prison Break

Chega ao fim uma das séries campeãs em downloads pela internet, após 4 temporadas de muito sucesso e genialidade.

A FOX só enviou um comunicado para a imprensa em relação ao final da série Prison Break."A série está terminando", diz Kevin Reilly, o presidente de entretenimento da FOX. "Prison Break teve um inferno astral com prazos para entrega dos episódios, mas no final tudo deu certo. Este será o último ano do show."

"'Prison Break' teve uma bela caminhada, mas a caminhada acabou. Esta será a última temporada da série", disse Kevin Reilly.

A queda de audiência já havia levantado as especulações de que essa poderia ser a última temporada da série, mas Kevin afirma que a decisão de terminar foi tomada por razões criativas.

Segundo ele, a história chegou a um ponto em que tudo já foi contado e que é melhor acabar enquanto "Prison Break" ainda está forte.

Prison Break acabou, mas ainda serão exibidos mais dois capítulos, entitulados de "Final Break". Só que estas duas horas a mais podem ser apresentadas como um filme para a TV, da mesma maneira que a emissora fez com o retorno de "24 Horas".

A maior fuga da televisão chega ao fim após quatro temporadas de muita tensão e vai deixar muitas saudades.

sexta-feira, 15 de maio de 2009

Oracle Announces New Features for Oracle Spatial

Oracle Announces New Features for Oracle Spatial at User's Conference
By Joe Francica , Editor-in-Chief and Vice Publisher, Directions MagazineApril 29, 2009

Classified Ads:Solve your spatial data conversion and distribution challenges withFME. Get the most extensive format support for data translation andintegration, and unlimited flexibility in data model transformationand distribution to access your spatial data where, when, and how youwant to. Learn more.

The fifth annual Oracle Spatial User's Conference was held last weekfollowing the GITA Conference in Tampa, Florida. Jim Steiner, seniordirector of Oracle's Server Technology, opened the conference withremarks about some industry trends and comments on Oracle's recentacquisition of Sun Microsystems. "The data explosion continues," saidSteiner. He cited several important events contributing to thisphenomenon. He included the launch of DigitalGlobe's WorldViewsatellite, with imagery available at approximately .50 cm resolution.He also mentioned Nokia's acquisition of NAVTEQ, which saw the digitaldata provider accelerate the rate of geographies it captures,including more from China, plus data sets for the telecommunicationand transportation industries. Steiner discussed the importance ofuser-generated content that provides a mechanism to acquire data fromusers in near real-time, especially "perishable" data such as trafficinformation. Finally, he noted that sensors went mainstream in 2008,including data captured by location-enabled traffic cameras. "This hada profound effect on the market," said Steiner.

Strategy for Oracle SpatialSteiner said that enhancements to Oracle Spatial will include moreanalysis, modeling and visualization for applications in retail,business intelligence, utilities and other areas. The company plans todo more with the network data model (NMD) and to add robust pathanalysis to support more complex networks. There will be investment insatellite image processing and new georeferencing methods. For themuch longer term, Steiner said, "We are going to see a convergence ofthe physical and virtual world." He believes that there is a comfortand ease that new generations have in working in virtual space. "Thiswill enable commercial applications with more complex spatialdimension," said Steiner. Oracle will continue addressing the emerginggrowth areas of unstructured data to support simulations and provide aplatform for 3D content.

Oracle Buys SUN
How does the acquisition of Sun Microsystems fit into Oracle'sstrategy? Steiner said it enhances the commitment to open standards.He explained that the number one platform for Oracle is Solaris,followed by Linux. Oracle and Sun share many clients. Oracle expectscustomer and partner benefits for both communities, includingincreased R&D investments.
New Oracle Spatial EnhancementsSiva Ravada, director of Software Development, provided details onwhat's coming in the next product release, Oracle 11gR2.
GeoRasterGeoRaster API - Oracle will offer four sample applications to showpeople how to use the GeoRaster API: tools.java, loader.java,viewer.java and exporter.java. With these samples, users can easilydevelop extract, transform and load (ETL) tools and applicationsgeared for Web applications.

Coordinate support for GeoRaster (SDO_GEOR.reproject) - This willallow users to transform GeoRaster raster data from one projection toanother. All Oracle Spatial coordinate systems are supported. Fiveresampling methods are supported: Nearest Neighbor, Bilinear, Cubic,Average4 and Average16.

Polygon-based raster clipping - Blocking size optimizer-minimizepadding - Blocking size optimizer will automatically optimize theblocking size based on the GeoRaster dimension sizes.
Raster InterpolationsTwo new functions - SDO_GEOR.evaluate and SDO_GEOR_evaluate.doubleenable; these functions provide advanced georeferencing using groundcontrol points (GCP).

Extract Transform and Load Functions - The GDAL GeoRaster Driver nowloads natively, importing and exporting many formats to/fromSDO_georaster including GeoTIFF and JPEG2000.

Interior PointSDO_UTIL.INTERIOR_POINT returns SDO_GEOMETRY; SDO_GEOM.SDO_TRIANGULATEreturns a geometry with triangular elements that result from DelaunayTriangulation. These commands provide labeling capabilities requestedby users.
Union of Geometry ObjectsA new method - SDO_AGGR_SET_UNION takes a VARRAY of SDO_GEOMETRYobjects as input and returns the aggregate union of all the geometryobjects in the VARRAY. This is a faster way to create the UNION ofseveral geometry objects. The function is useful when the geometriesto be grouped are easily gathered into a collection.
Faster Coordinate System TransformationSDO_CS.Transform is up to 10 times faster, according to Ravada. NowOracle Spatial uses context between transform() calls with the samesource and target SRIDs; in prior releases the transformation contextwas created for each transform() call.

Cross-endian Support for Transport Tablespace (TTS) and Spatial IndexSDO_UTIL.INITIALIZE_INDEXES_FOR_TTS now automatically fixes the indexif the TTS export is done in a different endian format than the targetformat.

Triangulated Irregular Networks and Point CloudsA result table for SDO_PC is used to map the input points to thePTN_ID and PINT_ID columns. This process has been very slow in thepast; this change enhances SDO_PC (point cloud) AND SDO_TIN storage.

Geocoding Using NAVTEQ DataA new table using NAVTEQ data and the function, GC_ADDRESS_PINT_NVT,provides point geocoding. The NAVTEQ data must reside in the databaseand will have to be purchased from NAVTEQ first.

Web Services
Oracle Spatial will provide full support for database transactions onOpenGIS Web Feature Service (WFS) 1.1 feature tables and WorkspaceManager. Oracle Spatial will allow updates/deletes on WFS-T featuretables via SQL. Users will be able to perform WFS transactions intoworkspace enabled feature tables. Users need sdo_wfs_lock.enableDBtxnsprocedure in a session before any workspace maintenance operation suchas refreshing a workspace or merging workspace can be completed.

Network Data Model (NDM)Path/Subpath analysis will support multiple costs in a singleanalysis. It will be possible to perform shortest distance paths withtravel time and fastest paths with travel distance.
User-defined objects can be accumulated and used in the networkconstraints during network analysis. The NDM now captures changes tothe network made in the database and users can synchronize thesechanges to network partitions in the database and in memory. This canbe done incrementally instead of reading the whole network again fromthe database.

Logical Network Partitioning
A new partitioning utility to help partition logical networks will beavailable to minimize the number of links among network partitions,and perform load balancing with predefined thresholds. This will beparticularly useful to those who work with very large networks.
Traveling Salesman (TSP) AnalysisThe new release will include a minimum cost tour function thatincludes all given nodes and support points on network as the nodesare visited.
Drivetime Polygon GenerationA spatial representation (polygon) can be created against a minimumcost network.

Routing EngineRouting applications will be built on top of the NDM Load-on-Demand(LOD) engine and use all the extensibility of the underlying NDMengine. Truck routing is an example of customizing the route for aspecific application. The new routing engine allows users to specifyvehicle type (car or truck) so that it can assume certain impedancesalong the highway depending on vehicle restrictions (weight, height,axel weight, width, length), allowing users to build a very complexrouting application. Truck routing data from NAVTEQ table definitionswill make a call to the NVT_TRANSPORT table.

Fusion Middleware (FMW)
MapViewerJayant Sharma, technical director for Oracle Spatial said, "[FMW]MapViewer (pdf) is essentially a mashup engine... for local search,map reporting and to some degree, interacting with the application."FMW MapViewer is WebLogic certified, and can provide annotation text,scalable styles, "heatmaps" and secure map rendering. MapViewer nowhas a wrap-around map capability (users had requested this for sometime), a toolbar, floating map "decoration" and tabbed informationwindows. In this development cycle, the objective was to focus onimproving the productivity of the developer who wanted to use it foradding different features. The "heatmaps" function will showconcentrations of points, such as for business locations.
Imagery Handling11g R2 now supports spherical coordinate systems. DigitalGlobe is alsomaking imagery more available to Oracle MapViewer throughjImageConnect, an SDK for its image library that provides access toimagery within Web applications and can be easily embedded in alreadyexisting Web applications.

SummaryEvery year Oracle enhances Oracle Spatial with new support for rasterand vector data analysis and management. This year seems to be anotherjump forward in support of advanced spatial analysis for both


Editor's Note: Oracle presented this information for the first time inpublic to its users at this event. Watch the Oracle website for thepresentations that were given at the users' conference; someinformation is there now with respect to Oracle Spatial 11gfunctionality.

terça-feira, 28 de abril de 2009

Com a compra da Sun, como fica o MySQL?

O negócio entre a Sun e a Oracle acaba de ser anunicado e analistas começam a discutir qual será o futuro do MySQL, banco de dados. A dúvida é: com o uso cada vez maior do MySQL no mercado corporativo, conseguirão os executivos da Oracle resistir à visão de que o banco de dados opne-source é um concorrente de seu produto?
Para Sharon Machlis, do Computerworld/EUA, o melhor seria se a Oracle racionalizasse as duas linhas de produtos, deixando claro onde oMySQL é melhor e onde o Database 11g pode ser a melhor escolha. “Em um mundo ideal, o MySQL poderia se beneficiar da tecnologia da Oracle”, diz.

Segundo a analista, a preocupação do mercado é que a Oracle vá, naturalmente, querer que seus canais de venda trabalhem com a opção de maior preço. Afinal, qual seria o benefício de continuar a estimular um produto aberto que pode concorrer com sua principal oferta? Em um comunicado sobre a aquisição, Charls Philips, presidente da Oracle, falou das vantagens da aquisição do Java e do Solaris, sem citar uma palavra sobre o MySQL.


Em outro comunicado divulgado sobre a aquisição, a Oracle afirma que “o MySQL será parte integrante da já existente suíte de bancos de dados Oracle, que inclui produtos como o Database 11g, o TimesTen, o open-source Berkeley DB e o engine de storage transacional, também aberto, InnoDB”.
“É verdade que a Oracle tem outro produto aberto em seu portfólio e planejar o incluir o MySQL. Mas a própria Oracle informa que o Berkeley DB é para uso em aplicativos que não requeiram SQL, o que faz com que ele não seja um concorrente do Database 11g como o MySQL pode ser em algumas situações. É algo em que precisaremos ficar atentos”, afirma Machlis.


Fonte: CW

Oracle vê Java e Solaris como as principais razões para a aquisição da Sun

Oracle vê Java e Solaris como as principais razões para a aquisição da Sun
São Francisco (EUA) – Larry Ellison afirma que o Java é o mais importante ativo de software adquirido pela Oracle.

Por IDG News Service, EUA


Em conferência realizada nesta segunda-feira (20/04), o CEO da Oracle, Larry Ellison, afirmou que o Java e o Solaris foram as duas principais razões para a aquisição da Sun. Para o executivo, o movimento está em linha com a estratégia de aquisições da companhia, sempre em busca de produtos líderes de mercado.
Chamando o Java de “o mais importante ativo de software que nós já adquirimos”, Ellison disse que os negócios de middleware baseados em Java – iniciados com a aquisição da BEA – devem se tornar maiores que os negócios feitos com bancos de dados. Ele lembrou que a plataforma Fusion é baseada em Java.

A Oracle também considera o Solaris como a melhor tecnologia Unix disponível no mercado, o que, segundo Ellison, explica porque há mais bancos de dados da companhia rodando neste sistema operacional do que em qualquer outro. Ele afirmou que os clientes que contam com os dois produtos terão benefícios advindos da integração técnica de ambos.

“Seremos capazes de integrar rapidamente o banco de dados Oracle às funcionalidades do Solaris, desenvolvendo-os para que trabalhem juntos”, disse Ellison.
O chairman da Sun, Scott McNealy, que dividiu as atenções com Ellison em inúmeras ocasiões durante os mais de 20 anos de parceria entre as duas empresas, disse que ambas dividem interesses comuns que farão com que a união seja simbiótica para os usuários.
Apesar do otimismo, o acordo representa um desafio para McNealy, que como Ellison tornou-se um íconde da indústria de tecnologia. Por anos, os dois lideraram suas companhias atacando seu inimigo comum – a Microsoft – e por vezes um ao outro. Entregar a companhia que ajudou a fundar a Ellison não deve ter sido uma decisão fácil para McNealy.
Por us avez, Ellison disse que a Oracle tende a integrar rapidamente companhias adquiridas e que o mesmo será feito com a Sun quando o acordo for aprovado por acionistas e organismos reguladores.

Com o anúncio do negócio, as ações da Sun subiram de 2,41 dólares para 9,10 dólares uma hora após a abertura do mercado, enquanto as da Oracle chegaram a 18,03 dólares (queda de 1,03 dólar). A queda é normal e refletem o debate de investidores sobre as vantagens de se gastar grandes somas em uma aquisição deste tipo.

domingo, 26 de abril de 2009

Venda de Notebook e Peças para PC







Notebook

DELL Latitude 120L usado



Notebook DELL Latitude 120L usado
Sistema Operacional Windows XP Service Pack 3 em Português do Brasil



Tela 14.1 Polegadas



Processador Intel Celeron M 1,50Ghz



Memória RAM de 2GB DDR2 667Mhz



Placa de video integrada Intel 910GML de 128MB



HDD Fujitsu de 60GB



Gravador de DVD/CD 8X PHILIPS



Placa de Rede 10/100Mbps Intel (RJ45)



Placa de Rede Wireless DELL b/g 54Mbps



Placa Fax Modem DELL conexant 56kbps v.90 (RJ11)



Placa de Som DELL



Saida Mini PCMCIA



Caixas de som embutidas de alta potência



3 Portas USB



Teclado em Português



Carcaça cinza e preta.



Entrada de Microfone e saída de fone de ouvido



Acompanha Adaptador Corrente Alternada de 60W e Bateria






Apenas R$ 999 reais!







Pentes de Memórias para PC DDR2 667 de 1GB por apenas 80 reais! (restam apenas dois pentes)


Pentes de Memória para Notebook DDR2 400mhz de 256Mb por apenas 40 reais! (restam apenas dois pentes)


Cooler para processadores Intel Core2Duo por apenas 30 reais!

Placa de Fax Modem 56kbps por 20 reais!


Roteador Wireless D-Link 802.11g 54Mbps por apenas 85 reais!







Interessados mandem e-mail para pedrofao@gmail.com

Oracle's Acquisition of Sun Could Change Java's Course

If Oracle owns the Java trademark and controls the Java Community Process, it could strategically secure Java and gain control over its future direction. But the Java community's reaction to its ownership is critical.


News Analysis

On 20 April 2009, Sun Microsystems and Oracle announced that they have entered into an agreement under which Oracle will acquire Sun in a deal valued at approximately $7.4 billion, or $9.50 per share. Oracle says it expects the transaction to close by Summer 2009, subject to shareholder and regulatory approval.


Analysis


Java is among the most valuable assets at stake in Oracle's proposed acquisition of Sun. Gartner believes that control of Java was one of the main drivers behind the deal.
The term "Java" encompasses several elements. The core Java technology is almost entirely composed of open-source code, but Sun retains control of the Java trademark and plays an influential role in coordinating the Java Community Process (JCP) — the open process by which Java standards are proposed and evolve. Oracle is one of the main suppliers of Java-based application infrastructure middleware. Oracle CEO Larry Ellison has said his company's Java-based Oracle Fusion Middleware is the fastest-growing part of its business. Java software embedded into consumer devices, such as PDAs, mobile phones, set-top boxes, media players and other electronic gadgets, represents the most directly profitable part of Sun's Java portfolio, giving Oracle entry into a new, lucrative market. (As an example, approximately 80% of the 960 million mobile devices shipped in 2008 embed the Java Platform, Micro Edition.) Nevertheless, Gartner believes Oracle's interest in controlling Java is primarily motivated by defensive reasons, to prevent Java from falling into the hands of competitors (such as IBM) or of companies that are mainly focused on Sun's hardware business and have little interest in Java technology. If Oracle owns the Java trademark and controls the JCP, it will be able to strategically secure Java and gain control over its future direction.
But ownership of Java will require some diplomacy on Oracle's part. If Oracle makes over Java into a proprietary technology or dramatically increases the cost of Java licenses, it risks limiting Java's popularity and profitability. IBM, SAP and Nokia have never perceived Sun as a threat to their business in the enterprise software and mobile markets comparable to the threat potentially represented by Oracle.
Oracle has been a "good citizen" in the Java community so far, but if IBM, SAP, Nokia and other important Java industry participants believed that Oracle had "hijacked" Java, they would strive to reduce their dependency on a technology controlled by a major competitor. Heavily invested in Java, these companies could not afford to suddenly drop their support for it due to the large number of their customers using Java-based products and the lack of readily available alternatives. Instead, vendors may be tempted to develop their own Java-compatible technologies. (The open-source core Java technology makes this technically possible.) Such disparate development efforts would fragment the Java language into two or more Java dialects or subdialects. (For example, the market could break down into the "true" Oracle Java, IBM's derivative, an SAP variant and possibly "open source" variants.) Such fragmentation would be catastrophic for Java as well as for Oracle, dramatically devaluating its acquisition.
Oracle is likely to take aggressive steps to reassure the industry that it will maintain and possibly reinforce the open nature of the JCP and Java. The IT industry values Java for its vendor-neutral and open qualities. For 15 years, users and independent software vendors have invested in Java and facilitated its adoption due largely to the portability of Java applications across hardware platforms, operating systems, database management systems and other systems. Should Java technology fragment, or should Oracle be perceived as "locking in" Java to a proprietary technology, the IT industry is likely to lose its enthusiasm for Java and seek alternatives — with Microsoft as the most obvious option.


Recommendations


Java users: No immediate action is required. Gartner believes Java technology will remain viable through 2014 and that strategic investments based on it remain safe. Over time, however, monitor Oracle’s plans for Java and discuss with your Java technology providers what your strategic option would be, if Oracle were to overcontrol the JCP.


Non-Java users: Though the balance of power remains unchanged for now, until Oracle shares its post-acquisition plans for Java, consider evaluating potential alternatives to Java, such as Microsoft’s .NET or Dynamic Languages (such as Python, PHP and Ruby on Rails) when practical.


Java technology providers: Establish a dialogue with Oracle to ensure that the company understands your requirements for the management of the JCP, technology licensing and other Java-related matters.


Recommended Reading


“Oracle/Sun Deal Will Change Competitive Landscape in IT” — If completed, the acquisition of Sun could make Oracle a powerhouse vendor in both hardware and software, rivaling IBM and HP. By Kenneth Chin, George Weiss, Donald Feinberg and Massimo Pezzini
"Java EE Is Not the Next CORBA” — Some industry watchers predicted the decline of Java after the release of Java EE in 2006 because of the platform's growing complexity, but Gartner disagreed and stated its viability was rock solid. By Massimo Pezzini
(You may need to sign in or be a Gartner client to access the documents referenced in this First Take.)

Source: Gartner Institute

sexta-feira, 24 de abril de 2009

Onde a Sun errou?

Um pouco antes da bolha da internet, acontecimento que marcou a interrupção da expansão meteórica da Sun Microsystems, o então CEO Scott McNealy e o presidente Ed Zander promoveram um encontro para discutir o futuro da companhia.

Naquele momento, a empresa vendia cada vez mais servidores e era uma das companhias mais queridas da economia da internet. “Era um momento peculiar e artificial, quando a Sun era considerada um fornecedor imprescindível”, diz Jonathan Eunice, analista da Illuminata, relembrando o encontro de 2001. “E mesmo com a iminência da bolha, os dois executivos aparentemente não viam que algo errado poderia acontecer”, completa.

Para o analista, era um momento no qual todos os presentes sabiam que as coisas não iriam continuar tão boas como estavam. “Parece que somente os executivos da Sun não percebiam que aquele momento era para tomar decisões para garantir a longevidade da empresa”, afirma Eunice.

Os anos que vieram a partir daquele momento não foram bons para a Sun. A companhia, que cresceu com a venda de poderosos servidores Unix, começou a ser ameaçada pelos processadores x86, responsáveis pelo surgimento de servidores mais baratos e também potentes. O sistema operacional Linux, adotado pela IBM e pela Oracle, foi outro problema, pois surgiu como uma alternativa de baixo custo para o Solaris.

Esses acontecimentos estavam acima do controle da Sun, mas enquanto HP e IBM reforçavam seus negócios incorporando novas tecnologias e construindo um portfólio para o novo mercado, a Sun permanecia parada. O que se seguiu, de acordo com analistas e alguns dos antigos executivos da Sun, foi uma série de erros que deixou a companhia como está hoje: perdas de 1,9 bilhões de dólares nos últimos dois trimestres e queda de 9% na receita.

Foi uma queda inglória para uma empresa que já foi uma das mais inovadoras da história do Vale do Silício. “A situação é estranha, porque a Sun provavelmente foi a companhia com mais visão de futuro que eu já pude testemunhar”, disse John Crupi, CTO da empresa JackBe e ex-CTO da divisão de Web da Sun. “Eles eram muito bons na engenharia. O problema é que eles nunca conseguiram empacotar os grandes produtos que produziam em soluções para resolver problemas das empresas”, afirma.

Stephen Hultquist, um veterano da indústria e diretor da empresa de consultoria Infinite Summit, concordou que falta de inovação nunca foi o problema da Sun. A falha foi a falta de habilidade dos executivos de ir além daquela visão e dar aos consumidores exatamente o que eles queriam para tocar seus negócios.

“Qualquer companhia que não foque continuamente nos reais benefícios para seus consumidores, tanto atuais quanto os futuros, eventualmente perderá a participação na memória deles”, disse Hultquist. “As empresas compram o que faz sentido para elas, para seu sucesso e para sua satisfação, e não o que é melhor em sentidos técnicos e esotéricos. Se isso não fosse verdade, a Microsoft não teria o poder que tem hoje”, completa.

Um exemplo é a visão que a Sun teve de que “a rede é o computador”, como dizia seu slogan. Hoje, empresas como Salesforce.com e Google têm essa idéia mais do que digerida, mas rodam Linux em vez de Solaris em seus data centers.

A Sun também foi uma das primeiras a ver que o modelo de software por assinaturas iria substituir as licenças por CPU quando o modelo de processadores com vários núcleos começou a prevalecer. Mas quando ela começou a oferecer software no modelo, havia menos interesse em seus produtos baseados em Java porque os consumidores já estavam utilizando produtos da IBM.

Três erros fundamentais
Os principais analista identificaram os três principais erros que, se fossem evitados, possibilitariam à Sun continuar com seu crescimento: a falta de reação rápida ao Linux, que poderia ser feita abrindo o código de Solaris mais rápido do que fez, a não fabricação de um produto da linha x86 suficientemente rápido para competir com os sistemas Sparc e a falta de habilidade em monetizar a tecnologia Java.

A Sun iniciou suporte a Linux e lançou seu servidor x86, em 2003. Em 2004, iniciou o projeto OpenSolaris. No entanto, quando isso aconteceu, IBM e Oracle já haviam eliminado as preocupações dos consumidores sobre o suporte a um sistema operacional livre e já havia reduzido os custos das linhas x86, que faziam com que muitas empresas substituíssem o Solaris por Linux e Windows.

Joe Lindsay, vice-presidente de engenharia da empresa de mídia interativa Brand Affinity Technologies, acredita que a Sun poderia ter impedido o fenômeno Linux focando mais cedo nos seus negócios de software em vez de dar toda a atenção ao Harware.

“Se eles tivessem focados em se transformar em uma empresa como a Microsoft, vendendo sistemas operacionais e softwares que rodassem nele, talvez o Linux nem teria sido criado, pela falta de necessidade”, diz Lindsay. “Se o Solaris fosse algo acessível e disponível nos servidores como o Windows é no desktop, o Linux talvez nunca tivesse acontecido”

Lindsay deixou um emprego na IBM em 1995 para trabalhar em empresas com data centers da Sun. Naquele tempo, ele era um grande fã do Solaris. Hoje, ele trabalha principalmente com Linux e outras plataformas abertas não criadas pela Sun, embora a empresa tenha aberto quase todos os seus produtos.

Com o Java, a empresa falhou ao não criar um modelo lucrativo para o negócio, coisa que a IBM e outras empresas fizeram com sucesso. O Java foi criado como uma tecnologia em desenvolvimento, em 1995, mas a Sun só conseguiu colocar a casa em ordem em 2004, quando colocou todos os seus componentes de Java embaixo da JES (Java Enterprise Systems).

Quando isso aconteceu, a IBM e a BEA (hoje parte da Oracle) eram as duas únicas fornecedores de software baseados em Java com relevância no mercado, e o servidor de aplicativos de código livre JBoss – agora parte da Red Hat – estava no caminho de transformar os negócios que a Sun estavam desenvolvendo em commodities.

A Sun já tinha um servidor de aplicativos chamado iPlanet muito antes da formação do JES. No entanto, levou muito tempo para que este fosse compatível com o padrão Java EE, um importante critério para os consumidores. O detalhe é que o padrão foi criado pela própria Sun, mas a empresa comprou outras tecnologias e levou muito tempo para torná-las todas compatíveis.

O fato de ser extremamente inovadora também pode ter atrapalhado. Miko Matsumura, vice-presidente da Software AG, esteve cinco anos na Sun como um evangelista de Java e diz que os executivos da Sun gostavam de ver choques intelectuais, pois dali sairiam novas idéias. “O problema é que muitas idéias surgiam, mas sem uma mensagem clara sobre como transformá-las em planos de negócios viáveis”, completa.

Última tentativa
O CEO Johathan Schwartz assumiu a empresa em Abril de 2006 para tentar tornar mais clara a direção da companhia e alinhar os produtos de software e hardware com o desejo dos consumidores. Sob Schwartz, a empresa abriu a maioria de suas tecnologias proprietárias, dando aos consumidores mais escolhas sobre como e onde aplicar as tecnologias.

“Essas atividades fizeram com que o negócio de softwares da companhia tivesse crescimento. Além disso, o segmento de Open Storage também teve sucesso, com 21% de crescimento ano a ano no quarto trimestre de 2008”, afirmava Noel Hartzell, porta-voz da Sun.

Hartzell disse ainda que a Sun trabalhou duro para reduzir custos e melhorar a eficiência operacional, economizando milhões de dólares nos últimos anos. A previsão era de que o último corte de custos, anunciado em novembro de 2008, poderia economizar mais 900 milhões de dólares para a companhia.

No entanto, cortes de custos não foram o suficiente para aumentar a lucratividade da Sun, culminando em uma negociação sem sucesso com a IBM e, finalmente, a sua venda para a Oracle.

Fonte: IDG

Microsoft registra piores vendas da história

A Microsoft registrou pior lucro líquido em 23 anos. O resultado foi abaixo do esperado, fechando o terceiro trimestre fiscal com US$ 3 bilhões de lucro líquido(inferior aos US$ 4,4 bilhões do ano passado). É a primeira vez que isso acontece desde que a Microsoft tornou-se uma empresa de capital aberto.

Também referente ao terceiro trimestre fiscal, as vendas somaram US$ 13,65 bilhões. Valor inferior ao do ano passado.

Como reflexo aos resultados abaixo das previsões, a Microsoft deve demitir mais de 5 mil empregados ao redor do mundo até o meio de 2010.