Menu

FILOSTEC
POLITICA FILOSOFIA SAUDE TECNOLOGIA ARTE ECONOMIA COMPORTAMENTO LIVROS COMUNS SEGUNDA GUERRA MUNDIAL FILOSTEC.COM.BR

JORNAIS QUE TEM INFORMAÇÃO REAL.

quinta-feira, 6 de dezembro de 2007

AS TVS DE ALTA RESOLUÇÃO REALMENTE SÃO POUCAS E AS MAIS CARAS

Observando o mercado de TVs de LCD e plasma verificamos que poucas são as que realmente tem a especificação que tem o nome de FULL DVD. Traduzindo "Digital video total em Alta definição" isso significa que essas TVs tem os recursos para reprodução da alta definição real com 1080 linhas de resolução. A maioria esmagadora das TVs expostas nas lojas e principalmente as que estão em liquidação e que são portanto as vezes muito mais em conta, não tem essa especificação, e portanto não estão preparadas para reprodução da alta definição total como está sendo veiculado.
No site abaixo por exemplo verificamos que de todas as TVs anunciadas sómente uma delas tem a especificação FULL DVD.

http://www.pontofrio.com.br/cgi-bin/loja.pl?grupo=50&tipo=797&orig=nw7

Outro detalhe é que essas TVs são normalmente as mais caras.
Veja abaixo um exemplo de especificação de TV de alta definição FULL DVD. Uma básica de 40 polegadas.


____________________________________________________________________


TV LCD SAMSUNG 40" LN40M81 FULL HD (Código 528595) - Disponível em estoque
23624624

Zoom Características Especificações Técnicas
R$ 6.299,99 à vista ou12× de R$ 524,98 sem juros no cartão
• R$ 5.039,99 à vista em boleto bancário Economize R$ 1.260,00
• 3x de R$ 2.099,98 sem juros no cheque
Veja outras opções de pagamento







CARACTERÍSTICAS DO PRODUTO
[GLOSSÁRIO]
Televisor de LCD 40” Wide Screen (16:9) Estéreo/SAP
1080p Full HD (pronto para TV Digital)
Super Clear Panel
DNIe™ - Melhor qualidade de imagem
Contraste dinâmico: 15.000:1
Brilho 550 cd/m2
Resolução do painel 1920 (H) x 1080 (V)
Tempo de resposta: 8 ms
Wide Color Enhancer
Movie Plus
Ângulo de visão de 178°
Suporte de mesa giratório
10 W + 10 W RMS de Potência de áudio
SRS Tru Surround XT
Trinorma (Pal-M, Pal-N, NTSC)
Durabilidade 60.000 horas
Consumo em Stand By: menos de 1 W
Conexões
3 Entradas HDMI (2 traseiras, 1 lateral)
1 Entrada RGB para PC
2 Entradas Vídeo Componente
2 Entrada A/V (lateral e traseira)
1 Entrada S-Vídeo (lateral)
1 Saída de áudio analógico
1 Saída para fones de ouvido
1 Saída de Áudio Digital óptica
1 RS232C (apenas para serviço)

quarta-feira, 5 de dezembro de 2007

O QUE HÁ DEERRADO COM O CITY?

Na época da ditadura militar, no governo Geisel, o todo poderoso Ministro da Fazenda Mario Henrique Simonsen favoreceu descaradamente o conglomerado financeiro CITYBANK, transformando-o no maior credor Brasileiro, já que foi o Banco americano que liderou os empréstimos em dólares ao Brasil na época.
Devido a isso o Ministro depois que deixou a sua pasta, ganhou de presente um cargo de diretor do citybank. Um cargo de fachada, em que ele ia (Ou dizia que ia) uma vez por ano aos Estados Unidos participar de uma reunião. Em troca recebia um polpudo salário em dólares.
Óbviamente isso não passou de um suborno, já que é notório que Roberto Campos, Delfin Netto e Simonsen sempre receberam comissões sobre os empréstimos conseguidos no exterior, com taxas que chegaram em certas épocas a 10%. Tudo isso devidamente não divulgado, mas que acabou vazando principalmente depois do escandalo do relatório SARAIVA onde um banco Frances queixava-se ao Brasil da verdadeira extorsão que o minstro Delfin Neto fazia a época. Um verdadeio leilão para ver quem dava mais de comissão.
O "Relatório Saraiva" (1976), como ficou conhecido, trazia uma denúncia contra o embaixador Antônio Delfim Neto e dois de seus amigos, Vilar de Queiroz e Andrade Pinto, que teriam recebido mais de 6 milhões de dólares em propinas de bancos franceses para facilitar negócios com o Brasil. Na época, Raymundo Saraiva Martins era adido militar em Paris. Apesar de ser divulgada a existência do relatório, não foi permitido nem ao público, nem aos acusados ler o relatório, que ficou arquivado no SNI. Sem a possibilidade de ler o relatório, não foi possível também conhecer as provas que acompanharam as denúncias.
Esses personagens beneficiaram-se da estratégia americana que era endividar o Brasil para mante-lo endividado e subdesenvolvido, atrelado a políticas de controle rigido de organismos como o FMI e Banco Mundial.







Seattle- A história do Citigroup, um conglomerado financeiro nascido em 1812 em Nova York, é uma sucessão de escândalos de tráfico de influência e brigas de diretores, mas nada calou mais fundo entre os acionistas do que o prejuízo de US$ 11 bilhões no terceiro quadrimestredeste ano, resultado não só da crise das hipotecas nos Estados Unidos, mastambém da pura - e grandiosa - incompetência da sua direção.








O grupo, uma espécie de quartel general do capitalismo, é a maior empresa em ativos do mundo (quase US$ 2 trilhões), ostentando em seu currículo a popularização dos caixas eletrônicos e a introdução do conceito full service financeiro. Agora vem se juntar ao clube dos sem-lucro de Wall Street: Bear Stearns (prejuízo de US$ 450 milhões), Morgan Stanley (US$ 3,7 bilhões) e Merrill Lynch (US$ 7,9 bilhões).







Desconta-se que o Citi é uma colcha de retalhos resultante de aquisições desde a sua criação. O que, por si só, representa um transatlântico ingovernável. Mas o que estava fazendo o CEO Charles Prince quando a crise das hipotecas pegou fogo em 2006 e foi derreter-se no verão norte-americano em meados deste ano? O homem ganhava quase US$ 30 milhões, opções de ações, prêmios semestrais, gratificações, clube de golfe, cartão de crédito, jatinhos e o beija-mão de toda a comunidade empresarial… e mesmo assim nãofez nada?







Diz-se que os problemas encontrados nas grandes empresas são os mesmos que você enfrenta aí no dia a dia da sua firma. A diferença são os números. E foram justamente os números que derrubaram o Citigroup, em fórmulas do que eles chamam de colaterização de débitos hipotecários, uma coisa tão difícil de entender que, como diz o ditado, dá para desconfiar. Na hora do “vamos ver”, as explicações foram mais complicadas ainda. Enquanto todo mundo estava ganhando dinheiro tudo bem, mas agora que a ficha caiu, só Prince foi mandado para a casa.







Desde que ele foi defenestrado do cargo, o conselho de diretores está, agora, à procura de um comandante. Paga-se bem, mas o problema é que o cargo é uma cadeira quente: o novo CEO terá de manejar um barco de 332 mil funcionários e 200 milhões de contas correntes em cerca de 100 países. Cada canetada sua pode balançar os Estados Unidos, a começar pela Bolsa de Nova York, cujo índice Dow Jones o Citi compõe e influencia.







Na última semana, um atento analista recomendou vender as ações do Citi, já que a exposição do conglomerado aos mercados de crédito continua sendo preocupante, especialmente para o seu maior acionista individual, o príncipe Al-Walid Saud, o 13º homem mais rico do mundo e proprietário de 10 bilhões em ações, ou 4% do total.







A crise é de liderança, concluiu o The Wall Street Journal esta semana. Por isto o conselho de diretores está se reunindo para avaliar os sucessores de Prince, “que agora deve ser um rei”, brinca o jornal. O conselho conta com nomes influentes, como Richard Parsons, CEO da Time Warner, Franklin Thomas, ex-Ford Foundation, o ex-secretário do Tesouro de Bill Clinton, Robert Rubin, que foi nomeado chairman depois que Prince foi convidado a seretirar, e o brasileiro Alain Belda, da Alcoa.

terça-feira, 20 de novembro de 2007

Será que o 11 de setembro nos enganou?


Para todos aqueles que assistiram estupefactos os acontecimentos do 11 de Setembro de 2001, sem dúvida algumas perguntas muito pertinentes ficaram, e essas perguntas seriam as seguintes:



1 - Como pode um país tão organizado e seguro como os Estados Unidos, apresentar uma vulnerabilidade tão grande? Uma falta de coordenação tão grande que permitisse o sucesso de uma empreitada tão audaciosa de um grupo terrorista? (Imagine então se fosse um ataque planejado por uma potência estrangeira como um novo Perl Harbour)?









4 - Será que os terroristas tinham um grau de organização tal que estudaram a estrutura do prédio e calcularam o estrago que a sua ação iria produzir? Será que esperaram tamanho êxito em suas empreitada? Porque não calcularam isso no primeiro atentado que explodiu uma bomba em uma das torres? Em um atentado foram extremamente ineficazes, mas no outro demonstraram um elevado grau de organização e eficiência, como se um aparelho de inteligência estivesse por trás de suas ações.



As perguntas prosseguem e são inúmeras.



Pois bem. As dúvidas existiam, mas ninguém poderia contestar com segurança as informações oficiais que nos chegaram inclusive com um filme que mostrava em detalhes como tudo aconteceu.



No entanto nos Estados Unidos pessoas incomodadas com essas indagações começaram a investigar, e descobriram inúmeras outras questões que merecem ser consideradas.



O fato começou a despertar minha atenção depois que eu assisti a um filme baixado na Internet onde toda a estrutura da mentira que envolve esse fato começou a ser esmiuçada, pois não é possível que um número tão grande de pessoas seja enganada de forma tão escandalosa. Dessa forma eis que agora os fatos começam a ser maciçamente estudados e esmiuçados por inúmeros meios já que hoje temos a Internet como forma de divulgação de fatos e dados até os não oficiais.



Existe um site na Internet que esmiúça esse fato com detalhes, o que eu convido os amigos leitores que se debrucem sobre essas revelaçõese os conheçam, para que possamos avaliar o poder da mídia de plantar mentiras em nossas vidas. vejam aqui.



Há inúmeros fatos sem explicação e que merecem investigação, mas dentre todos alguns eu gostaria de enumerar aqui.



1 - O fato de o Governo dos Estados Unidos através dos seus órgãos especializados como o NORAD ter feito testes com aviões não tripulados e ter planejado acidentes fictícios muito bem delineados com tripulações falsas visando criar factóides para impacto na opinião pública em relação por exemplo a Cuba. Isso demonstra que os Estados Unidos tinham a tecnologia necessária para usar aviões não tripulados nesse tipo de missão.


2 - O fato de ter sido feito um estudo no sentido de se reestruturar as defesas da América, assinado por autoridades de primeiro escalão nos Estados Unidos destacando-se que isso seria mais rápido se ocorresse um novo impacto na opinião pública como um novo Perl Harbour. (Como é notório depois do ataque a Perl Harbour na segunda guerra mundial, a população Norte Americana pressionou os Estados Unidos para entrar na Guerra, o que antes encontrava uma resistência intransponível junta à opinião pública.)


3 - O fato de se terem feito estudos sobre um choque de um avião no Pentagono e nos edifícios do World Trade Center, com vários indícios de que tal fato poderia realmente ocorrer.


4 - O tipo de avaria que ocorreu no Pentagono, que não é a avaria de um avião mas parece mais um missil, pois é uma brecha redonda não caractrerística de um avião.


5- O fato de não terem sido encontrados traços de turbinas no atentado do pentágono, nem caixas pretas em nenhum dos atentados seja do WTC ou do pentagono


6 - O fato de não ter sido localizado nenhum corpo ou nenhuma gota de sangue em nenhum dos atentados nem no vôo 93 nem no pentagono e nem no WTC


7 - O tipo de manobra para atingir os edifícios era uma manobra muito difícil e os pilotos terroristas definitivamente não tinham qualificações para isso.


8 - Os terroristas divulgados por todos os meios de comunicação, como autores do atentado, deram provas (vários deles) de estar vivos em países árabes.


9 - O fato de terem os bombeiros (muito bem demonstrado nas gravações feitas pelo rádio dos Bombeiros) e várias testemunhas informado terem ouvido inúmeras explosões antes da queda das torres gêmeas, o que supõe-se ser uma implosão.


10 - O fato do filme do desmoronamento das torres gêmeas, ter mostrado explosões ocorrendo nas áreas abaixo do desmoronamento.




12 - As inúmeras negociatas que ocorreram dias antes das implosões (desmoronamentos) como vendas de ações, seguros do complexo etc... cancelamentos de vôos etc... tudo demonstrado nos Hard Disks dos computadores recuperados depois do desmoronamento.


13 - As lesões que foram feitas nos pilares subterraneos dos edifícios, demonstrando que foram cortados a maçaricos.


14 - As remoções dos lingotes de ouro que estavam armazenados nos subterraneos do complexo e que foram 99% retirados antes do cataclisma.


E por ai vai.


Quais as razões para tal crime? Um pretexto para a guerra pelo petróleo Iraquiano? Talvez.


No entanto também havia a intenção de demolir tudo para construir outro edifício ainda maior e que serão quando prontos em 2009 os maiores edifícios do mundo.


Fica a sensação de termos sido todos enganados.

sexta-feira, 16 de novembro de 2007

BRASIL - NÃO HÁ RAZÃO PARA ESTAR PESSIMISTA.


Entendo que há uma vantagem prática em se analisar as mudanças que acontecem no mundo para dai se poder tomar algumas decisões na nossa vida pessoal, e não ser colhido de surpresa.



O mundo contemporâneo por acaso passa por mudanças importantes que afectarão as próximas gerações. Entender essas mudanças poderá trazer algumas vantagens.



É evidente que o mundo está passando por uma nova crise do petróleo, pois o preço do barril encostando na casa dos 100 dólares, está próximo de bater um novo recorde de preço, mas importante é notar que os preços corrigidos pela inflação da moeda americana já quase empatam com o recorde de 1981, quando (a preços actuais) o barril chegou a custar 102 dólares.



Desta vez, porém, não são guerras, revoluções ou boicotes árabes os principais motivos da subida, mas sim a sede por petróleo de economias como as da China e Índia.



Hoje não só multiplicaram-se as grandes potências consumidoras, especialmente com a entrada da China, mas também multiplicaram-se as áreas produtoras, como no Brasil, especialmente no Mar Cáspio e na costa ocidental da África.






Nos termos mais abrangentes possíveis, e a prazo curto, o barril de petróleo a 100 dólares enfraquece consideravelmente americanos e europeus. E favorece alguns dos regimes mais ditatoriais, corruptos e intratáveis do planeta.



Aqui não se trata de um julgamento moral: o adjectivo “intratável”, por exemplo, é usado do ponto de vista de Washington. É óbvio que o expansionismo russo –e a mão dura de Vladimir Putin a partir do Kremlin– está ligado à recuperação económica da Rússia a partir dos preços de exportação de energia (e seu mercado cativo na Europa Ocidental).



É suficientemente claro que o regime dos aiatolás no Irã só consegue superar as severas sanções (em parte impostas desde 1979) graças ao petróleo. A sede chinesa de petróleo está transformando o quadro de negócios na África, abrindo a países como Angola (um dos alvos principais da China) e Nigéria bar ganhas insuspeitadas menos de 20 anos atrás. Até mesmo quem não tem petróleo, como a Turquia, se beneficia vigorosamente do ponto de vista militar e estratégico pelo fato de que sua posição geográfica é fundamental para determinar como e por onde passará o petróleo do Mar Cáspio.



O mundo do petróleo a 100 dólares não será um mundo mais fácil. Ao contrário –talvez alguns nostálgicos até sintam falta de um mundo, o que já acabou, no qual alguns podiam fazer o papel de polícia (como EUA e URSS fizeram) e acomodar interesses.


Até que um novo arranjo surja, vai passar bastante tempo. E correr muito petróleo, quer dizer, muito sangue, parafraseando o título do célebre livro de Michael Klare, no qual petróleo e sangue são sinónimos.



Quadro I

Preço do Petróleo nos últimos 50 anos(Preços reais do barril em dólares de 2000,médias, crude norte-americano)
1950-1959 -20,47
1960-1973 -17,72
1974-1985 -43,42
1986-2001 -20,82
Fonte: Oil and the Macroeconomy since the 1970's, Robert Barsky e Lutz Kilian, Julho 2004


____________________________________________________________
Quadro II


Disparo do Petróleo após a viragem geo-políticada Administração Bush(Preços nominais em dólares do barril WTI, EUA, médias)
2002 - 24,72
2003 - 29,64
1º semestre de 2004 - 36,78
3º trimestre de 2004 (estimativa do DOE) - 41

Fonte:
www.tax.state.ak.us e Departamento de Energia (DOE) dos EUA, Agosto 2004Nota: WTI=West Texas Intermediate


______________________________________________________________
Quadro III


Evolução histórica do preço spot do petróleo Brent (europeu)entre 1970 e 2004(Actualizado a preços correntes de 2004, em dólares por barril)Nota: Preços do Brent são mais baixos do que os norte-americanos
Fase 1


4º trimestre de 1973 - 2,50 dólares


Outubro 1973 -Guerra do Yon Kippur e Embargo - 1º choque petrolífero -2º trimestre de 1974


13 dólares (equivale a 40 dólares actuais) Crescimento de 354%
____________________________________________________________


Fase 2


2º choque petrolífero - Outubro 1978 - Revolução no Irão, Queda do Xá - Setembro de 1980 - Guerra Irão-Iraque - 1º trimestre de 1982
Cerca de 40 dólares (equivale a 70 dólares actuais) Crescimento de 60%
___________________________________________________________________


Fase 3


Mini-choque petrolífero - Agosto 1990 - Invasão do Kuwait pelo Iraque - 1990-1991 - Guerra do Golfo - 1991
Acima dos 30 dólares (equivale a cerca de 40 dólares actuais) -
Crescimento de 50%
_____________________________________________________________________
Fase 4
1997 a 1999 - Quebra dos preços


________________________________________________________________
Fase 5
3º choque petrolífero - Março de 1999 - Início nos cortes na produção da OPEP - Março de 1999a Novembro de 2000


Preços disparam dos mínimos nos 10 dólarespara cerca de 30 dólares


2002


Média de 25,03 dólares Crescimento de 160%


___________________________________________________________________
Fase 6


Mini-choque petrolífero - Dezembro 2002 - Greve na Venezuela (5º exportador mundial)


2003 -Ocupação do Iraque
2003
Média de 28,81 dólares


______________________________________________________________________
Fase 7


Junho 2004 - Greve na Noruega (3º exportador mundial)
Julho/Agosto 2004
Disputa sobre a Yukos (Rússia, 2º produtor mundial)e luta política na Venezuela
1º semestre de 2004
Média de 33,7 dólares (segundo o OPEC Reference Basket)


________________________________________________________________________
Fontes: Relatório do Citigroup Smith Barney/Equity Strategy (13 de Agosto);

www.mees.com; e Oil and the Macroeconomy since the 1970's,



Os Estados Unidos da América, parecem perder o controle do seu sonho de HEGEMONIA MUNDIAL sobre o mundo. A aventura nuclear se disseminando. HUGO CHAVES quem diria quer entrar nesse clube, do qual o Irã também participa. Alguns países de entre os quais o Brasil tomando a dianteira.






A China é o verdadeiro expoente desse grupo e possui atualmente uma das economias que mais crescem no mundo. A média de crescimento económico deste país, nos últimos anos é de quase 10%. Uma taxa superior a das maiores economias mundiais, inclusive a do Brasil. O Produto Interno Bruto (PIB) da China atingiu 2,2 triliões de dólares em 2006, fazendo deste país a quarta maior economia do mundo. Estas cifras apontam que a economia chinesa representa atualmente 13% da economia mundial.




Dentro do grupo dos países com maior potencial para conquistar um lugar no G6, O grupo dos países mais industrializados do mundo, a China é a economia que se prevê irá ultrapassar os Estados Unidos da América até 2040. Do Atual G6, somente Estados Unidos e Japão deverão permanecer nesse grupo depois de 2040.




Embora apresente todos estes dados de crescimento económico, a China enfrenta algumas dificuldades. Grande parte da população ainda vive em situação de pobreza, principalmente no campo. A utilização em larga escala de combustíveis fósseis (carvão mineral e petróleo) tem gerado um grande nível de poluição do ar. Os rios também têm sido vítimas deste crescimento económico, apresentando altos índices de poluição. Os salários, controlados pelo governo, coloca os operários chineses entre os que recebem uma das menores remunerações do mundo. Mesmo assim, o crescimento chinês apresenta um ritmo alucinante, podendo transformar este país, nas próximas décadas, na maior economia do mundo.








No entanto é preferível um crescimento sustentável o que poderá nos dar no futuro a dianteira do processo.






Não temos razão para estarmos pessimistas.


Participe.

terça-feira, 13 de novembro de 2007

RESSONÂNCIA SCHUMANN






Por Leonardo Boff (Teólogo e escritor)





Não apenas as pessoas mais idosas, mas também jovens fazem a experiência de que tudo está se acelerando excessivamente. Ontem foi carnaval, dentro de pouco será Páscoa, mais um pouco, Natal. Esse sentimento é ilusório ou possui base real? Pela "ressonância Schumann" se procura dar uma explicação.





O físico alemão W.O. Schumann constatou em 1952 que a Terra é cercada por uma campo eletromagnético poderoso que se forma entre o solo e a parte inferior da ionosfera que fica cerca de 100 km acima de nós, criando o que se chamou de "cavidade Schumann". Nessa cavidade produz-se uma ressonância (dai chamar-se ressonância Schumann) mais ou menos constante da ordem de 7,83 pulsações por segundo(hertz).






Funciona como uma espécie de marca-passo, responsável pelo equilíbrio da biosfera, condição comum de todas as formas de vida. Essa ressonância está ligada ao sol e às condições ecológicas gerais da biosfera e da atividade poluidora humana.






Sabe-se que o aumento crescente do uso de celulares favorece a poluição magnética a nivel de todo o sistema-Terra, além de interferir no equilíbrio magnético dos neurônios.













Experimentos que Schumann fez com estudantes, encerrando-os em "bunkers" isolados magneticamente, mostrou que ficavam perturbados. Introduzindo as ondas Schumann, voltavam, pouco tempo depois, ao estado normal. Detectou-se também que toda vez que os astronautas, em razão das viagens espaciais, ficavam fora da ressonância Schumann, adoeciam. Mas submetidos à ação de um "simulador Schumann" recuperavam o equilíbrio e a saúde.





Por milhares de anos as batidas do coração da Terra tinham essa frequência de pulsações e a vida se desenrolava em relativo equilíbrio ecológico. Ocorre que a partir dos anos 80 e de forma mais acentuada a partir dos anos 90 a frequência passou de 7,83 para 11 e para 13 hertz por segundo. O coração da Terra disparou. Coincidentemente desequilíbrios ecológicos se fizeram sentir: perturbações climáticas, maior atividade dos vulcões, recrudescimento do "el Niño", maior degêlo nas calotas polares, aumento de tensões e conflitos no mundo e de comportamentos desviantes nas pessoas, entre outros.






Devido à aceleração geral, a jornada de 24 horas, na verdade, é somente de 16 horas. Portanto, a percepção de que tudo está passando rápido demais não é ilusória, mas teria base real neste transtorno da ressonância Schumann.





Gaia, esse superorganismo vivo que é a Mãe Terra, deverá estar buscando formas de retornar a seu equilíbrio natural. E vai consegui-lo, mas não sabemos a que preço, a ser pago pela biosfera e pelos seres humanos. Apenas enfatizo a tese recorrente entre grandes cosmólogos e biólogos de que a Terra é, efetivamente, um superorganismo vivo, de que Terra e humanidade formamos uma única entidade, como os astronautas testemunham continuamente lá de suas naves espaciais.






Nós, seres humanos, somos Terra que num momento de sua evolução começou a sentir, a pensar, a amar e a venerar, e hoje, a se alarmar. Porque somos isso, possuimos idêntica natureza bioelétrica e estamos envoltos pelas mesmas ondas ressonantes Schumann.





Se quisermos que a Terra reencontre seu equilíbrio devemos começar por nós mesmos: fazer tudo com menos stress, com mais serenidade, com mais amor que é uma energia essencialmente harmonizadora. Para isso importa sermos um pouco anti-cultura dominante que nos obriga a ser cada vez mais competitivos e efetivos, gerando desequilíbrio generalizado nas relações humanas.





Precisamos respirar juntos com a Terra para conspirar com ela em benefício de mais entendimento entre os seres humanos, de maior cuidado para com a Casa Comum e de uma paz mais duradoura para toda a humanidade.




Comente

quinta-feira, 8 de novembro de 2007

O BRASIL NA OPEP?


Uma notícia hoje nos noticiários é extremamente alvissareira. Nós Brasileiros talvez ainda não tenhamos medido a exata dimensão do que representa essa notícia para todos nós Brasileiros, e o passo gigantesco que essa notícia representa.






Desde que foi criada por Getúlio Vargas, a Petrobras vem enfrentando inimigos internamente (Financiados pelos interesses externos) e externamente visando a entrega de nossas riquezas no caso o petróleo, em mãos de empresas multinacionais, principalmente as denominadas "sete irmãs".







O tempo no entanto se encarregou de mostrar que o PETROSSAURO como jocosamente a chamavam o decepcionante presidente COLLOR e os entreguistas de plantão, é um modelo de sucesso estatal. É a maior empresa Brasileira, e não só brasileira. É a maior da América latina e é uma das cinco empresas brasileiras que está colocada entre as quinhentas maiores empresas do mundo, sendo a melhor colocada entre elas, ocupando a 65ª colocação, portanto a única entre as 100 maiores empresas do mundo. Depois dela o Bradesco ocupa a 224ª posição, seguida por ITAU, Banco do Brasil e Vale do Rio Doce (Que estreou nesse grupo recentemente).


Na lista da revista FINANCIAL TIMES a Petrobras ocupa a 48ª posição. entre as 500 maiores do mundo pulando da 124ª posição o ano passado para a 48ª posição.



O lucro do PETROSSAURO tem apresentado recordes sucessivos e esteve indo à estratosfera. Foi de 23,7 bilhões de reais em 2005 batendo os recordes dos anos anteriores e 25,9 bilhões de reais em 2006 batendo novamente o recorde de 2005, superado em 9%.






Para se ter uma idéia do que isso representa, basta recordar que a empresa VALE DO RIO DOCE foi vendida por meros 2,1 bilhões de (pasmem) REAIS. Portanto o lucro da Petrobras equivale ao valor de venda de 13 Vales do Rio Doce só em 2006. (Agora me digam, é ou não é um roubo isso?)






Portanto em que pesem as opiniões das aves de rapina, foi certa a decisão de não privatizar a PETROBRÁS, hoje símbolo do orgulho desse povo o BRASIL. Com certeza Getúlio Vargas está rindo a toa lá no túmulo e ROBERTO CAMPOS se mordendo de raiva.


O COMBUSTIVEL DO FUTURO E A ERA TERMINADA DO GÁS BARATO.


Não iria durar muito. O gás vai aumentar. No Brasil é assim mesmo.
Quando a gasolina era fata e barata no início dos anos 60 e antes, os Militares que assumiram o governo no golpe militar de 1964 e depois do primeiro choque do petróleo, descobrindo na gasolina um filão, resolveram aumenta-la, embutindo nela toda sorte de taxas e impostos.
Veja Gráfico recente que informa a quantidade de impostos que incide sobre os diversos derivados de petróleo, e a proporção em relação à Gasolina.

Porque a gasolina nunca foi a vilã que forçaria a compra de petróleo já que no refino da Gasolina, há sobra. Quem sempre foi o vilão nesse caso era o óleo diesel que alimentava os fornos industriais do Brasil, e que hoje está sendo substituido pelo gás natural.

E tanto isso é verdade que a gasolina era exportada a preços de mercado internacional, ou seja preços vis comparados aos preços praticados no Brasil, para aliviar os tanques de armazenamento de gasolina no Brasil que transbordavam de excedentes forçando o governo a gastar com armazenamento de gasolina.

Quando se viabilizou o alcool, um combustivel de produção cara em relação à gasolina, tanto que o seu custo embora tenha caido de U$90,00 (Noventa dólares o barril) para aproximadamente U$45,00 (Quarenta e cinco dólares o barril), ainda é caríssimo em relação à gasolina.

Para se viabilizar o seu consumo, teve que se introduzir um subsídio substancial, e quem bancou esse subsídio? A gasolina que tinha óbviamente um custo de produção muito mais barato, em torno de U$13,00 (TREZE DÓLARES O BARRIL).

Mais tarde a gasolina bancou o gás de cozinha que era gás liquefeito de petróleo e não o gás natural, e vários impostos estaduais e municipais.

Com o tempo o Alcool foi sendo abandonado, e quase morreu. Tornou-se um combustível práticamente inviavel pois o seu custo no mercado interno era quase o equivalente ao da gasolina, em rendimento.

Havia a alternativa do gás, mas era previsível que seria apenas um começo. Como previsto essa alternativa será em breve coisa do pasado.

O combustível do futuro mesmo não será nem o alcool nem a gasolina e nem o gás. (Nesse ponto os militares se equivocaram.) O primeiro embora renovável tem produção cara, e os dois ultimos se extinguirão ao longo do tempo. O combustível do futuro será o HIDROGÊNIO. O Hidrogênio pode ser fabricado a partir de uma substância que existe em fartura no globo terrestre que é a água.

Já existem vários protótipos de carros movidos a HIDROGÊNIO sendo mostrados nos salões de automóveis do mundo inteiro.

No entanto há quem condene essa tecnologia, mas estão enganados. No Brasil na década de 70 um homem criou um carro movida a água.

Não se tem certeza, mas em 1984 o consultor energético Sidney Godolphin patenteou um carro movido a água. O inventor afirmava que teria conseguido rodas quatrocentos quilômetros em um jipe, utilizando um litro de água e outro de gasolina. Godolphin alegou que seu invento foi recusado por instituições oficiais que, na época, estavam preocupadas com o projeto Proálcool. Quando serviu no exército, ele chegou a dizer a um major que conseguiria mover a frota de caminhões do batalhão com água. Isso lhe valeu uma rápida passagem pelo hospício militar.

Como essa tecnologia não interessava na época esse projeto sumiu, mas agora a indústria e os militares se movimentam em torno da tecnologia da água como produtora de energia. Eles sabem que é viavel.

Vide os links.

http://www.ilumina.org.br/zpublisher/materias/Estudos_Especiais.asp?id=18707

segunda-feira, 5 de novembro de 2007


Com o crescimento que o BRASIL enfrenta, fruto do sucesso da administração LULA, há a necessidade de mais energia. A falta de energia pode estancar o crescimento Brasileiro.

A matriz energética Brasileira está calcada atualmente no consumo de gás natural. Isso porque com a oferta de gás farto e barato, resultante da construção do gasoduto BRASIL-BOLÍVIA, tido por nós como um equívoco da administração FHC, que colocou o Brasil em situação de dependência em relação à Bolívia, a Indústria como um todo migrou para os fornos à Gás. Quem não quer um combustível mais barato? Os motoristas da mesma forma migraram para os carros à gás, portanto o país ficou dependente de gás. Até as termo elétricas usam o gás natural.

Foi por isso talvez que o Presidente LULA baixou a orelha para o presidente EVO MORALES da Bolívia quando ocorreu a crise da nacionalização da refinaria da Petrobrás na Bolívia, que foi comprada pela Petrobras e tida como um mau negócio por especialistas. Muitas pessoas acharam que o LULA tinha que romper relações com a BOLÍVIA, entretanto LULA demonstrou mais uma vez a coerência que os estadistas devem ter em horas de crise. Há um grande esforço de LULA para manter o MERCOSUL, e o bom senso apontava na direção da moderação, principalmente quando se sabe que há uma vulnerabilidade.

O Presidente Ditador da Venezuela Hugo Chavez procura de várias maneiras assumir a liderança Latino Americana e é um perigo para a América Latina, principalmente quando se sabe que está se armando. Com armas poderá querer impor sua loucura. Sabe-se que está por trás da crise Boliviana. Evo Morales foi apenas um “PAU MANDADO”, portanto Lula Agiu bem ao moderar o tom. Agora pode pedir mais gás. Se tiver que pagar mais, que pague mas não deixe parar a economia. Enquanto isso espera-se que a Petrobras faça o seu papel, descobrindo o gás que precisamos. E quem sabe algum dia possamos não precisar mais da Bolivia.

O ministro das Relações Exteriores, Celso Amorim, disse nesta segunda-feira (5) ter confiança de que o Brasil chegará a um acordo com a Bolívia, seu principal fornecedor de gás natural, para receber maior quantidade do produto. Ele afirmou que o presidente Luiz Inácio Lula da Silva deve fazer uma visita ao país para pedir mais gás ao presidente boliviano, Evo Morales.

"Nós temos necessidade de gás. É uma questão bastante evidente. O cliente natural da Bolívia é o Brasil. Então, eu acho que com isso e com um clima de entendimento que se conseguiu lograr, vai se chegar a uma definição", disse o ministro.

Celso Amorim afirmou que um encontro entre os presidentes Lula e Evo Morales acontecerá em breve, mas disse que a data ainda não está marcada. "O presidente Lula tem a intenção de ver o presidente Morales ainda esse ano, fora o encontro que naturalmente terão provavelmente nos corredores da Conferência Ibero-americana, mas ele tem intenção de ir à Bolívia. É uma questão de acertar a data."

Vulnerabilidade


Ao participar de uma conferência de comércio exterior no Rio de Janeiro, que a decisão da Petrobras de reduzir a oferta do combustível nos mercados do Rio e de São Paulo tem caráter empresarial. "Isso é uma decisão técnica que a Petrobras tem que tomar. É claro que o governo acompanha e tem participado", ressaltou.
Sobre a vulnerabilidade que o Brasil enfrentou por conta da crise no mercado de gás, disse que não é especialista no assunto. "Não sabia que existia essa vulnerabilidade da semana passada. Independentemente disso, o Brasil, crescendo a 5% ao ano, como nós todos queremos que cresça, vai ter necessidade de mais energia. Essa energia vai ter que vir de vários lugares, mas, quanto mais ela vier de dentro do Brasil e da região (América do Sul), melhor", afirma.

segunda-feira, 29 de outubro de 2007

ORGANIC LED - A NOVA TECNOLOGIA QUE IRÁ SUPERAR O LCD.

Nem bem a tecnologia de TVs e Monitores de LCD desbanca a tecnologia de TVs de PLASMA que por sua vez desbancou a tecnologia CRT (Tubos de raios catódicos), e já surge uma tecnologia melhor. Portanto a industria vai descartar as TVs de LCD, a mesma Tecnologia dos monitores de computadores da atualidade, para depois lançar a TECNOLOGIA OLED ou seja LED organico.





Sony apresentou no Japão na Display Expo 2007, várias telas de TVs… de diversas tecnologias. Mas, uma dentre as demais, se destaca… (Foto1) com resoluçaõ de 1024×600 mede apenas 3 milimetros de espessura! Desenvolvida com LED Organic tem mais brilho que as imagens de TVs convencionais. (Foto2)Seu contraste é de 100000:1 (sim, 1 milhão) em apenas 9 milimetros de espessura. A nova tecnologia emite menos calor e consome menos energia, pesa menos…e claro, custa mais que as demais.

Comente o assunto.

sexta-feira, 19 de outubro de 2007

NOVO LED DA SAMSUNG

Samsung apresenta LED de 10.000:1

Com o anúncio de novos LCDs para notebook, a Samsung surpreendeu com a apresentação de um específico, com LED branco. Com 15,4", o monitor com LED oferece mais clareza nas imagens, menor consumo de energia (requer apenas 2 watts para operar) e tem relação de contraste de 10.000:1.

ACABAM OS PROCESSADORES DE UM NÚCLEO




A muito tempo que a indústria de Processadores, mais destacadamente a INTEL e a AMD, vem se debatendo com um dilema.






Como aumentar o poder de processamento dos computadores se não é mais possível diminuir a distancia das bolachas que compõem os transitores presentes nos processadores?




Os processadores que são o cérebro dos computadores, são compostos atualmente por mais de cinco milhões de transistores mcroscópicos que estão na sua totalidade inseridos dentro de uma pastilha de silício, não maior do que uma unha. O processador tem um tamanho maior porque o espaço externo é gasto para se prover os conectores.




Pois os transistores são básicamente compostos de uma espécie de sanduiche em que por fora tem-se um material do tipo P ou N e por dentro outro também de tipo P ou N mas de polaridade contrária ao que está por fora.




Ao longo de duas décadas as velocidades foram aumentando baseadas únicamente na redução dessas distancias que chegaram ao tamanho de alguns atomos. A partir de certo ponto não foi mais possível diminuir essas distâncias.


Na verdade a dificuldade que sempre acompanhou a evolução da velocidade de processamento foi o aumento da temperatura, pois com o aumento da velocidade sempre medida em Hertz ou ciclos por segundo, uma corrente elétrica percorria todos os cinco milhões de transistores a cada ciclo. Com as velocidades em torno de 3 gigahertz ou seja 3 bilhões de ciclos por segundo, os processadores esquentaram barbaramente.
A solução para resolver esse problema foi acoplar ventoinhas mais populartmente chamadas de COOLERs, sofisticadas e caras, que pudessem refrigerar esses processadores. Foi incorporado também um sistema de segurança que desliga o procesador quando esse ultrapassa determinada temperatura, e produz também um alarme sonoro quando a temperatura chega perto do ponto de alarme.
Chegou-se a se implementar soluções de refrigeração a água, e a gas refrigerante, particularmente para aqueles aficcionados que gostavam de aumentar a frequencia dos processadores acima da especificação de fábrica, mais popularmente chamados de OVERCLOCKERS.
Diminuindo-se a distância entre as bolachas dos transistores dimuinuiu-se também a resistência elétrica desses componentes e do processador como um todo o que possibilita o aumento da sua freqüência de trabalho, mais popularmente chamada de CLOCK.
Ocorre que esse limite físico tinha que chegar a um ponto em que não fosse mais possível diminuir pois chegou a distância de uns poucos átomos.
Dessa forma a indústria de processadores partiu para a fabricação de processadores com mais de um núcleo, ou seja a princípio dois núcleos em um. Assim dois processadores distribuiriam as tarefas e o processador aumentaria sua eficiência.
Foi assim que foram lançados os PENTIUM D (O "D" de duplo.) A AMD também lançou seus modelos de núcleo duplo. Mais tarde evoluiu-se para o Pentium CORE 2 DUO. Os pentium D tinham o nome de CORE DUO.
A diferença entre o "Core 2 duo" e o "Core duo" é que no "Core 2 duo" cada um dos processadores que compõem o núcleo duplo pode acessar a memória "cache L2" individualmente, enquanto no "CORE DUO" um processador só pode acessar a memória "cache L2" depois que o outro processador acabar de acessar.
Durante o ultimo ano tivemos processadores Core 2 duo e Core duo bem como processadores de apenas um núcleo despencando de preço.
Porém dentro em pouco não encontraremos mais no mercado processadores de apenas um núcleo.
A partir dos primeiros meses de 2008, a Intel dá adeus a era dos processadores de um núcleo com o lançamento da série de dois núcleos de entrada, a Celeron E1000. O primeiro dessa família a chegar é o modelo E1200, com freqüência de 1,6 GHz, barramento externo de 800 MHz e cache L2 de 512 KB. Será vendido nos EUA a US$ 53 por unidade em lotes de mil.

Também no início do ano, a empresa vai lançar dois processadores de 45 nanômetros (Diminuindo ainda mais as bolachas dos transistores) dentro da família E4000.

Leia o artigo do Digitimes:
http://www.digitimes.com/mobos/a20071017PD218.html

Porque a tecnologia SERIAL ATA



A TECNOLOGIA IDE, Embora como padrão tenha tido a designação ATA desde sempre, o mercado inicial divulgou a tecnologia como IDE (e sucessora E-IDE).


Embora estas designações fossem meramente comerciais e não padrões oficiais, estes termos aparecem muitas vezes ao mesmo tempo: IDE e ATA.


Com a introdução do Serial ATA em 2003, esta configuração foi retroativamente renomeada para Parallel ATA (ATA Paralelo) referindo-se ao método como os dados eram transferidos pelos cabos desta interface.


A interface foi projectada inicialmente apenas para conectar discos rígidos. Com o advento de outros tipos de dispositivos de armazenamento — nomeadamente os de suporte amovível, como drives de CD-ROM, tape drives, e drives disquetes de grande capacidade, como os ZIPDRIVES, obrigou-se à introdução de extensões ao padrão inicial.


É assim que surge a extensão ATAPI (do inglês Advanced Technology Attachment Packet Interface), cuja designação formal seria ATA/ATAPI.



A evolução do acesso PIO para o DMA marcou uma nova metodologia de Processamento das CPUs, o que tornou os computadores mais rápidos, pois permitia o intercambio entre o HD e a memória sem passar pela CPU, mas obrigava a CPU a ler as palavras individualmente.


Isso era muito problemático quando o acesso se fazia a endereços fora da memória cache. Esta era a principal razão do fraco desempenho da tecnologia ATA face ao SCSI ( Uma tecnologia auternativa de discos rígidos muito mais velozes e mais caros também.) ou outras interfaces.


Assim, o DMA (e o sucessor Ultra DMA ou UDMA) reduziam drasticamente o consumo de CPU necessário para operações de leitura ou escrita nos discos, permitindo transferências de dados diretas entre o dispositivo e a memória, evitando sobrecarregar a CPU.



A tecnologia ATA foi progressivamente esbarrando em barreiras-limite da quantidade de dados que podia transferir. No entanto, a maioria seria suplantada por soluções baseadas em novos sistemas de endereçamento e técnicas de programação. Algumas destas barreiras incluem: 504 MB, 8 GB, 32 GB e 137 GB. Várias outras barreiras deveram-se a más concepções de drivers e camadas de entrada/saída nos sistemas operacionais.



Inclusive, as barreiras enunciadas surgiram devido a implementações de BIOS (Bios é o programa que primeiro roda no computador inicializando-o e que fica armazenado na memória ROM e que gerencia as entradas e saidas como teclado, mouse, drivers etc... O "i" da palavra refere-se a IN de entrada e o "o" da palavra refrere-se a OUT de saida.) muito fracas, o que se compreende já que a evolução dos discos entre o intervalo 1GB-8GB se dava de forma muito lenta.



Um dos problemas que impedia o constante aumento da velocidade de transferência de dados nos Discos Rígidos padrão IDE, ou Cabo paralelo, é que com o aumento da velocidade tinha-se no Flat Cable uma frequência cada vez maior.


Como se sabe, ao se ter uma freqüência elevada transitando em cabos próximos, instala-se entre eles uma indutância que pode se comportar como um curto entre esses dois cabos, pois a freqüência elevada consegue transitar em um capacitor.



Como nos cabos paralelos há a proximidade entre os cabos que compõem o flat Cable, começou a ocorrer interferências, à medida que a velocidade de transferência aumentava, a interferência se ampliava, de modo que esse fator limitou a possibilidade de se aumentar indefinidamente a velocidade de transferência de dados nos HDs com cabo paralelo.



A primeira solução que se criou para contornar esse problema foi a colocação de um condutor neutro entre os condutores que efetivamente compunham o cabo paralelo. Dessa forma um condutor não teria a seu lado outro condutor com sinal mas um condutor neutro, o que estabeleceria distancias entre os cabos que compunham o flat cable e que efetivamente recebiam os bits.


Os Flat Cables mais recentes são daqueles que tem 80 condutores em vez dos 40 tradicionais mais antigos.



Essa solução embora durante algum tempo resolvesse o problema, mais a frente esbarrou novamente na limitação de possiblidades de aumento de velocidade.



Para se solucionar esse problema criou-se então o cabo SERIAL. Agora o HD não iria receber um conjunto de 40 condutores em paralelo, mas apenas um cabo duplo(Com dois condutores), onde os bits não seriam transferidos um em cada um dos condutores designados para essa função como no Flat Cable, mas em uma sucessão de bits todos pelo mesmo cabo. Dessa forma seria possível aumentar indefinidamente a velocidade, enviando os bits em pacotes ultra velozes.


Com o lançamento do padrão SERIAL ATA I, a velocidade aumentou tímidamente de 133 para 150 megabits por segundo. Agora com a implantação do sistema serial ata II, a velocidade dobrou para 300 megabits por segundo, deixando a velocidade de 133 do padrão IDE ou PATA (paralell ATA) para trás.


Como resultado temos HDs muito mais velozes que com a tecnologia RAID então nem se fala, já que a tecnologia RAID dobra a velocidade quando são dois HDs ligados em RAID 0, mas pode-se ligar até quatro HDs em RAID.
Amplie as informações aqui passadas ou corrija o queestiver errado dando o seu parecer.
Obrigado.


quinta-feira, 18 de outubro de 2007

A EVOLUÇÃO DOS HDs


A evolução dos HDs


Os HDs ou Hard Disks (Discos Rígidos) não param de evoluir. HDs que começaram com 5 Kbytes na era dos primeiros PCs, chegam agora a 8 TERABYTES ou mais.

Na foto, conectores em placa mãe para Serial ATA.

A Hitachi apresentou em 2009 um novo cabeçote de disco-rígido com tamanho bem reduzido, o que permitiu a criação de HDs de até 4 TB para desktops na época e que hoje já são comuns. As novas cabeças mediam de 30 a 50 nanômetros e os drives de até 4 TB estavam previstos para chegar ao mercado em 2009.

Leia o artigo do The Inquirer:



No início os Hard Disks eram muito mais caros e tinham muito menos capacidade de armazenamento. Os primeiros HDs tinham o tamanho de uma caixa de sapatos e capacidade de armazenamento de apenas 5 kbytes. Eram também pesados. Os computadores de grande porte e não os micro computadores é que iniciaram o uso dos HARD DISKS, que eram pratos enormes de porcelana. Os primeiros Personal Computers na verdade costumavam nem ter discos rígidos. Normalmente eram usados com leitores de discos no qual vinha escrito o seu sistema operacional e os programas que as vezes eram escritos pelos próprios usuários. Estava em voga na época a programação para usuários de computador e existiam nas bancas de revistas, muitas publicações que discutiam o assunto, com exemplos de programação.

Hoje podemos encontrar no mercado HDs de 4 TERABITES que são os que tem o melhor custo benefício entando entre os mais populares.

HDs de 1 TERABYTE tem um bom custo benefício hoje e podem ser adquiridos pelo consumidor comum sem grandes desembolsos. 

A pouco tempo foi desenvolvida a tecnologia RAID que é uma tecnologia onde vários HDs podem ser instalados em paralelo de forma que ao ler e gravar os dados nos HDs esses dados são divididos e gravados ao mesmo tempo metade em um HD e outra metade em outro HD.

Essa tecnologia hoje não é mais tão popular como era quando foi criada, pelo fato de que com o advento dos SSDs e mais recentemente do Nvmes (Que são SSDs que conversam diretamente com o barramento dos processadores e que elevaram enormemente a velocidade de processamento dos computadores), perde sentido montar dois HDs em um siatema RAID para aumentar a velocidade, pois é muito mais eficiente colocar um NVme ou um SSD. 

veja os seguintes links:

Esse processo tem duas vantagens e uma desvantagem.

Uma das vantagens é a rapidez, pois os dados são lidos e gravados na metade do tempo, se o número de HDs em RAID for dois.

Outra vantagem é que o tamanho do HD é aumentado em dobro, mas pelo preço justo pois é necessário comprar dois HDs exatamente iguais em vez de um.

A desvantagem é que o HD é um pouco mais volátil do que o HD não RAID, pois os dados gravados dependem do bom funcionamento de dois HDs e não de um apenas. Estatisticamente a probabilidade de que em dois HDs um possa apresentar problemas é maior do que em apenas um HD.

Essa problemática eu diria é mais acentuada em HDs que utilizam a tecnologia SERIAL ATA que se tornou a tecnologia definitiva superando a TECNOLOGIA mais antiga que é a do cabo paralelo ou FLAT CABLE, ou ainda a tecnologia IDE.

É que os cabos Serial ATA tem maior probabilidade de dar mau contacto do que os cabos paralelos ou FLAT CABLEs. Isso vem sendo minimizado pela fabricação de cabos Serial Ata que tem um dispositivo que os mantém pressionados, permitindo que o mau contacto dificilmente ocorra. Dispositivos esse que tem uma espécie de mola.

Nós em nossa atividade diária com computadores temos encontrado problemas de mau contato com cabos SERIAL ATA, mas desenvolvemos um artifício que diminui sensivelmente senão elimina por completo esses mau contatos. É a colocação de um leve borrifo de spray de óleo penetrante/lubrificante nos plugues de contato tanto machos como fêmeas. Esse pequeno borrifo praticamente eliminou em definitivo os problemas que encontrávamos de falhas em contatos de cabos serial Ata. Pode-se também utilizar spray de limpa contato que funciona para qualquer tipo de plug que precise de conexão elétrica eficiente.

Há quem não goste de colocar sprays de material lubrificante penetrante em equipamentos elétricos, pois imaginam que não é o adequado, mas eu não concordo com essa posição, pois as especificações desse material mostram que são materiais dielétricos, ou seja isolantes, e podem ser empregados em equipamentos elétricos. O óleo penetrante por sua vez elimina as micro oxidações que se instalam em materiais condutores de cabos e slots de cartões e que são as responsáveis pela instalação do mau contato. Experimente e tire suas conclusões

É óbvio que é ideal que o ambiente elétrico onde o óleo será utilizado seja primeiramente limpo, pois caso contrário o óleo poderá se misturar à sujeira normalmente poeira proveniente da proliferação de ácaros o que pode comprometer o isolamento principalmente em ambiente onde ocorra diferenças de potencial elevadas. A limpeza pode ser feita por exemplo com um spray de freon, com pincel seco e até com álcool ou éter.

A tecnologia RAID (Pretendemos fazer uma postagem só para falar dela e outra só para falar da tecnologia SERIAL ATA) permite ligar em paralelo até quatro HDs, para aumentar a rapidez de leitura e escrita, como também para aumentar em muito a capacidade do HD, que hoje pode superar facilmente com o uso dessa tecnologia a casa dos 16 ou mais TERABYTE (MIL GIGABYTES).

As placas mãe modernas atualmente trazem portas SERIAL ATA para serem utilizadas com HDs ligados em RAID. 

As portas IDE que usavam flat cables são difícilmente encontradas hoje a não ser em computadores antigos, e as placas mãe modernas quando trazem só trazem uma porta IDE para ligar algum equipamento antigo. No entanto os fabricantes de DVDs players e Gravadores de DVD, hoje só os estão fabricando com saída SERIAL ATA, e brevemente as placas Mãe de computadores irão abolir de vez as portas IDE e assumir de vez a tecnologia Serial Ata.

Sobre toda essas tecnologias estaremos comentando em breve.


Dê seu parecer. Comente. Você é bem vindo.