Menu

FILOSTEC
POLITICA FILOSOFIA SAUDE TECNOLOGIA ARTE ECONOMIA COMPORTAMENTO LIVROS COMUNS SEGUNDA GUERRA MUNDIAL FILOSTEC.COM.BR

JORNAIS QUE TEM INFORMAÇÃO REAL.

quinta-feira, 8 de novembro de 2007

O BRASIL NA OPEP?


Uma notícia hoje nos noticiários é extremamente alvissareira. Nós Brasileiros talvez ainda não tenhamos medido a exata dimensão do que representa essa notícia para todos nós Brasileiros, e o passo gigantesco que essa notícia representa.






Desde que foi criada por Getúlio Vargas, a Petrobras vem enfrentando inimigos internamente (Financiados pelos interesses externos) e externamente visando a entrega de nossas riquezas no caso o petróleo, em mãos de empresas multinacionais, principalmente as denominadas "sete irmãs".







O tempo no entanto se encarregou de mostrar que o PETROSSAURO como jocosamente a chamavam o decepcionante presidente COLLOR e os entreguistas de plantão, é um modelo de sucesso estatal. É a maior empresa Brasileira, e não só brasileira. É a maior da América latina e é uma das cinco empresas brasileiras que está colocada entre as quinhentas maiores empresas do mundo, sendo a melhor colocada entre elas, ocupando a 65ª colocação, portanto a única entre as 100 maiores empresas do mundo. Depois dela o Bradesco ocupa a 224ª posição, seguida por ITAU, Banco do Brasil e Vale do Rio Doce (Que estreou nesse grupo recentemente).


Na lista da revista FINANCIAL TIMES a Petrobras ocupa a 48ª posição. entre as 500 maiores do mundo pulando da 124ª posição o ano passado para a 48ª posição.



O lucro do PETROSSAURO tem apresentado recordes sucessivos e esteve indo à estratosfera. Foi de 23,7 bilhões de reais em 2005 batendo os recordes dos anos anteriores e 25,9 bilhões de reais em 2006 batendo novamente o recorde de 2005, superado em 9%.






Para se ter uma idéia do que isso representa, basta recordar que a empresa VALE DO RIO DOCE foi vendida por meros 2,1 bilhões de (pasmem) REAIS. Portanto o lucro da Petrobras equivale ao valor de venda de 13 Vales do Rio Doce só em 2006. (Agora me digam, é ou não é um roubo isso?)






Portanto em que pesem as opiniões das aves de rapina, foi certa a decisão de não privatizar a PETROBRÁS, hoje símbolo do orgulho desse povo o BRASIL. Com certeza Getúlio Vargas está rindo a toa lá no túmulo e ROBERTO CAMPOS se mordendo de raiva.


O COMBUSTIVEL DO FUTURO E A ERA TERMINADA DO GÁS BARATO.


Não iria durar muito. O gás vai aumentar. No Brasil é assim mesmo.
Quando a gasolina era fata e barata no início dos anos 60 e antes, os Militares que assumiram o governo no golpe militar de 1964 e depois do primeiro choque do petróleo, descobrindo na gasolina um filão, resolveram aumenta-la, embutindo nela toda sorte de taxas e impostos.
Veja Gráfico recente que informa a quantidade de impostos que incide sobre os diversos derivados de petróleo, e a proporção em relação à Gasolina.

Porque a gasolina nunca foi a vilã que forçaria a compra de petróleo já que no refino da Gasolina, há sobra. Quem sempre foi o vilão nesse caso era o óleo diesel que alimentava os fornos industriais do Brasil, e que hoje está sendo substituido pelo gás natural.

E tanto isso é verdade que a gasolina era exportada a preços de mercado internacional, ou seja preços vis comparados aos preços praticados no Brasil, para aliviar os tanques de armazenamento de gasolina no Brasil que transbordavam de excedentes forçando o governo a gastar com armazenamento de gasolina.

Quando se viabilizou o alcool, um combustivel de produção cara em relação à gasolina, tanto que o seu custo embora tenha caido de U$90,00 (Noventa dólares o barril) para aproximadamente U$45,00 (Quarenta e cinco dólares o barril), ainda é caríssimo em relação à gasolina.

Para se viabilizar o seu consumo, teve que se introduzir um subsídio substancial, e quem bancou esse subsídio? A gasolina que tinha óbviamente um custo de produção muito mais barato, em torno de U$13,00 (TREZE DÓLARES O BARRIL).

Mais tarde a gasolina bancou o gás de cozinha que era gás liquefeito de petróleo e não o gás natural, e vários impostos estaduais e municipais.

Com o tempo o Alcool foi sendo abandonado, e quase morreu. Tornou-se um combustível práticamente inviavel pois o seu custo no mercado interno era quase o equivalente ao da gasolina, em rendimento.

Havia a alternativa do gás, mas era previsível que seria apenas um começo. Como previsto essa alternativa será em breve coisa do pasado.

O combustível do futuro mesmo não será nem o alcool nem a gasolina e nem o gás. (Nesse ponto os militares se equivocaram.) O primeiro embora renovável tem produção cara, e os dois ultimos se extinguirão ao longo do tempo. O combustível do futuro será o HIDROGÊNIO. O Hidrogênio pode ser fabricado a partir de uma substância que existe em fartura no globo terrestre que é a água.

Já existem vários protótipos de carros movidos a HIDROGÊNIO sendo mostrados nos salões de automóveis do mundo inteiro.

No entanto há quem condene essa tecnologia, mas estão enganados. No Brasil na década de 70 um homem criou um carro movida a água.

Não se tem certeza, mas em 1984 o consultor energético Sidney Godolphin patenteou um carro movido a água. O inventor afirmava que teria conseguido rodas quatrocentos quilômetros em um jipe, utilizando um litro de água e outro de gasolina. Godolphin alegou que seu invento foi recusado por instituições oficiais que, na época, estavam preocupadas com o projeto Proálcool. Quando serviu no exército, ele chegou a dizer a um major que conseguiria mover a frota de caminhões do batalhão com água. Isso lhe valeu uma rápida passagem pelo hospício militar.

Como essa tecnologia não interessava na época esse projeto sumiu, mas agora a indústria e os militares se movimentam em torno da tecnologia da água como produtora de energia. Eles sabem que é viavel.

Vide os links.

http://www.ilumina.org.br/zpublisher/materias/Estudos_Especiais.asp?id=18707

segunda-feira, 5 de novembro de 2007


Com o crescimento que o BRASIL enfrenta, fruto do sucesso da administração LULA, há a necessidade de mais energia. A falta de energia pode estancar o crescimento Brasileiro.

A matriz energética Brasileira está calcada atualmente no consumo de gás natural. Isso porque com a oferta de gás farto e barato, resultante da construção do gasoduto BRASIL-BOLÍVIA, tido por nós como um equívoco da administração FHC, que colocou o Brasil em situação de dependência em relação à Bolívia, a Indústria como um todo migrou para os fornos à Gás. Quem não quer um combustível mais barato? Os motoristas da mesma forma migraram para os carros à gás, portanto o país ficou dependente de gás. Até as termo elétricas usam o gás natural.

Foi por isso talvez que o Presidente LULA baixou a orelha para o presidente EVO MORALES da Bolívia quando ocorreu a crise da nacionalização da refinaria da Petrobrás na Bolívia, que foi comprada pela Petrobras e tida como um mau negócio por especialistas. Muitas pessoas acharam que o LULA tinha que romper relações com a BOLÍVIA, entretanto LULA demonstrou mais uma vez a coerência que os estadistas devem ter em horas de crise. Há um grande esforço de LULA para manter o MERCOSUL, e o bom senso apontava na direção da moderação, principalmente quando se sabe que há uma vulnerabilidade.

O Presidente Ditador da Venezuela Hugo Chavez procura de várias maneiras assumir a liderança Latino Americana e é um perigo para a América Latina, principalmente quando se sabe que está se armando. Com armas poderá querer impor sua loucura. Sabe-se que está por trás da crise Boliviana. Evo Morales foi apenas um “PAU MANDADO”, portanto Lula Agiu bem ao moderar o tom. Agora pode pedir mais gás. Se tiver que pagar mais, que pague mas não deixe parar a economia. Enquanto isso espera-se que a Petrobras faça o seu papel, descobrindo o gás que precisamos. E quem sabe algum dia possamos não precisar mais da Bolivia.

O ministro das Relações Exteriores, Celso Amorim, disse nesta segunda-feira (5) ter confiança de que o Brasil chegará a um acordo com a Bolívia, seu principal fornecedor de gás natural, para receber maior quantidade do produto. Ele afirmou que o presidente Luiz Inácio Lula da Silva deve fazer uma visita ao país para pedir mais gás ao presidente boliviano, Evo Morales.

"Nós temos necessidade de gás. É uma questão bastante evidente. O cliente natural da Bolívia é o Brasil. Então, eu acho que com isso e com um clima de entendimento que se conseguiu lograr, vai se chegar a uma definição", disse o ministro.

Celso Amorim afirmou que um encontro entre os presidentes Lula e Evo Morales acontecerá em breve, mas disse que a data ainda não está marcada. "O presidente Lula tem a intenção de ver o presidente Morales ainda esse ano, fora o encontro que naturalmente terão provavelmente nos corredores da Conferência Ibero-americana, mas ele tem intenção de ir à Bolívia. É uma questão de acertar a data."

Vulnerabilidade


Ao participar de uma conferência de comércio exterior no Rio de Janeiro, que a decisão da Petrobras de reduzir a oferta do combustível nos mercados do Rio e de São Paulo tem caráter empresarial. "Isso é uma decisão técnica que a Petrobras tem que tomar. É claro que o governo acompanha e tem participado", ressaltou.
Sobre a vulnerabilidade que o Brasil enfrentou por conta da crise no mercado de gás, disse que não é especialista no assunto. "Não sabia que existia essa vulnerabilidade da semana passada. Independentemente disso, o Brasil, crescendo a 5% ao ano, como nós todos queremos que cresça, vai ter necessidade de mais energia. Essa energia vai ter que vir de vários lugares, mas, quanto mais ela vier de dentro do Brasil e da região (América do Sul), melhor", afirma.

segunda-feira, 29 de outubro de 2007

ORGANIC LED - A NOVA TECNOLOGIA QUE IRÁ SUPERAR O LCD.

Nem bem a tecnologia de TVs e Monitores de LCD desbanca a tecnologia de TVs de PLASMA que por sua vez desbancou a tecnologia CRT (Tubos de raios catódicos), e já surge uma tecnologia melhor. Portanto a industria vai descartar as TVs de LCD, a mesma Tecnologia dos monitores de computadores da atualidade, para depois lançar a TECNOLOGIA OLED ou seja LED organico.





Sony apresentou no Japão na Display Expo 2007, várias telas de TVs… de diversas tecnologias. Mas, uma dentre as demais, se destaca… (Foto1) com resoluçaõ de 1024×600 mede apenas 3 milimetros de espessura! Desenvolvida com LED Organic tem mais brilho que as imagens de TVs convencionais. (Foto2)Seu contraste é de 100000:1 (sim, 1 milhão) em apenas 9 milimetros de espessura. A nova tecnologia emite menos calor e consome menos energia, pesa menos…e claro, custa mais que as demais.

Comente o assunto.

sexta-feira, 19 de outubro de 2007

NOVO LED DA SAMSUNG

Samsung apresenta LED de 10.000:1

Com o anúncio de novos LCDs para notebook, a Samsung surpreendeu com a apresentação de um específico, com LED branco. Com 15,4", o monitor com LED oferece mais clareza nas imagens, menor consumo de energia (requer apenas 2 watts para operar) e tem relação de contraste de 10.000:1.

ACABAM OS PROCESSADORES DE UM NÚCLEO




A muito tempo que a indústria de Processadores, mais destacadamente a INTEL e a AMD, vem se debatendo com um dilema.






Como aumentar o poder de processamento dos computadores se não é mais possível diminuir a distancia das bolachas que compõem os transitores presentes nos processadores?




Os processadores que são o cérebro dos computadores, são compostos atualmente por mais de cinco milhões de transistores mcroscópicos que estão na sua totalidade inseridos dentro de uma pastilha de silício, não maior do que uma unha. O processador tem um tamanho maior porque o espaço externo é gasto para se prover os conectores.




Pois os transistores são básicamente compostos de uma espécie de sanduiche em que por fora tem-se um material do tipo P ou N e por dentro outro também de tipo P ou N mas de polaridade contrária ao que está por fora.




Ao longo de duas décadas as velocidades foram aumentando baseadas únicamente na redução dessas distancias que chegaram ao tamanho de alguns atomos. A partir de certo ponto não foi mais possível diminuir essas distâncias.


Na verdade a dificuldade que sempre acompanhou a evolução da velocidade de processamento foi o aumento da temperatura, pois com o aumento da velocidade sempre medida em Hertz ou ciclos por segundo, uma corrente elétrica percorria todos os cinco milhões de transistores a cada ciclo. Com as velocidades em torno de 3 gigahertz ou seja 3 bilhões de ciclos por segundo, os processadores esquentaram barbaramente.
A solução para resolver esse problema foi acoplar ventoinhas mais populartmente chamadas de COOLERs, sofisticadas e caras, que pudessem refrigerar esses processadores. Foi incorporado também um sistema de segurança que desliga o procesador quando esse ultrapassa determinada temperatura, e produz também um alarme sonoro quando a temperatura chega perto do ponto de alarme.
Chegou-se a se implementar soluções de refrigeração a água, e a gas refrigerante, particularmente para aqueles aficcionados que gostavam de aumentar a frequencia dos processadores acima da especificação de fábrica, mais popularmente chamados de OVERCLOCKERS.
Diminuindo-se a distância entre as bolachas dos transistores dimuinuiu-se também a resistência elétrica desses componentes e do processador como um todo o que possibilita o aumento da sua freqüência de trabalho, mais popularmente chamada de CLOCK.
Ocorre que esse limite físico tinha que chegar a um ponto em que não fosse mais possível diminuir pois chegou a distância de uns poucos átomos.
Dessa forma a indústria de processadores partiu para a fabricação de processadores com mais de um núcleo, ou seja a princípio dois núcleos em um. Assim dois processadores distribuiriam as tarefas e o processador aumentaria sua eficiência.
Foi assim que foram lançados os PENTIUM D (O "D" de duplo.) A AMD também lançou seus modelos de núcleo duplo. Mais tarde evoluiu-se para o Pentium CORE 2 DUO. Os pentium D tinham o nome de CORE DUO.
A diferença entre o "Core 2 duo" e o "Core duo" é que no "Core 2 duo" cada um dos processadores que compõem o núcleo duplo pode acessar a memória "cache L2" individualmente, enquanto no "CORE DUO" um processador só pode acessar a memória "cache L2" depois que o outro processador acabar de acessar.
Durante o ultimo ano tivemos processadores Core 2 duo e Core duo bem como processadores de apenas um núcleo despencando de preço.
Porém dentro em pouco não encontraremos mais no mercado processadores de apenas um núcleo.
A partir dos primeiros meses de 2008, a Intel dá adeus a era dos processadores de um núcleo com o lançamento da série de dois núcleos de entrada, a Celeron E1000. O primeiro dessa família a chegar é o modelo E1200, com freqüência de 1,6 GHz, barramento externo de 800 MHz e cache L2 de 512 KB. Será vendido nos EUA a US$ 53 por unidade em lotes de mil.

Também no início do ano, a empresa vai lançar dois processadores de 45 nanômetros (Diminuindo ainda mais as bolachas dos transistores) dentro da família E4000.

Leia o artigo do Digitimes:
http://www.digitimes.com/mobos/a20071017PD218.html

Porque a tecnologia SERIAL ATA



A TECNOLOGIA IDE, Embora como padrão tenha tido a designação ATA desde sempre, o mercado inicial divulgou a tecnologia como IDE (e sucessora E-IDE).


Embora estas designações fossem meramente comerciais e não padrões oficiais, estes termos aparecem muitas vezes ao mesmo tempo: IDE e ATA.


Com a introdução do Serial ATA em 2003, esta configuração foi retroativamente renomeada para Parallel ATA (ATA Paralelo) referindo-se ao método como os dados eram transferidos pelos cabos desta interface.


A interface foi projectada inicialmente apenas para conectar discos rígidos. Com o advento de outros tipos de dispositivos de armazenamento — nomeadamente os de suporte amovível, como drives de CD-ROM, tape drives, e drives disquetes de grande capacidade, como os ZIPDRIVES, obrigou-se à introdução de extensões ao padrão inicial.


É assim que surge a extensão ATAPI (do inglês Advanced Technology Attachment Packet Interface), cuja designação formal seria ATA/ATAPI.



A evolução do acesso PIO para o DMA marcou uma nova metodologia de Processamento das CPUs, o que tornou os computadores mais rápidos, pois permitia o intercambio entre o HD e a memória sem passar pela CPU, mas obrigava a CPU a ler as palavras individualmente.


Isso era muito problemático quando o acesso se fazia a endereços fora da memória cache. Esta era a principal razão do fraco desempenho da tecnologia ATA face ao SCSI ( Uma tecnologia auternativa de discos rígidos muito mais velozes e mais caros também.) ou outras interfaces.


Assim, o DMA (e o sucessor Ultra DMA ou UDMA) reduziam drasticamente o consumo de CPU necessário para operações de leitura ou escrita nos discos, permitindo transferências de dados diretas entre o dispositivo e a memória, evitando sobrecarregar a CPU.



A tecnologia ATA foi progressivamente esbarrando em barreiras-limite da quantidade de dados que podia transferir. No entanto, a maioria seria suplantada por soluções baseadas em novos sistemas de endereçamento e técnicas de programação. Algumas destas barreiras incluem: 504 MB, 8 GB, 32 GB e 137 GB. Várias outras barreiras deveram-se a más concepções de drivers e camadas de entrada/saída nos sistemas operacionais.



Inclusive, as barreiras enunciadas surgiram devido a implementações de BIOS (Bios é o programa que primeiro roda no computador inicializando-o e que fica armazenado na memória ROM e que gerencia as entradas e saidas como teclado, mouse, drivers etc... O "i" da palavra refere-se a IN de entrada e o "o" da palavra refrere-se a OUT de saida.) muito fracas, o que se compreende já que a evolução dos discos entre o intervalo 1GB-8GB se dava de forma muito lenta.



Um dos problemas que impedia o constante aumento da velocidade de transferência de dados nos Discos Rígidos padrão IDE, ou Cabo paralelo, é que com o aumento da velocidade tinha-se no Flat Cable uma frequência cada vez maior.


Como se sabe, ao se ter uma freqüência elevada transitando em cabos próximos, instala-se entre eles uma indutância que pode se comportar como um curto entre esses dois cabos, pois a freqüência elevada consegue transitar em um capacitor.



Como nos cabos paralelos há a proximidade entre os cabos que compõem o flat Cable, começou a ocorrer interferências, à medida que a velocidade de transferência aumentava, a interferência se ampliava, de modo que esse fator limitou a possibilidade de se aumentar indefinidamente a velocidade de transferência de dados nos HDs com cabo paralelo.



A primeira solução que se criou para contornar esse problema foi a colocação de um condutor neutro entre os condutores que efetivamente compunham o cabo paralelo. Dessa forma um condutor não teria a seu lado outro condutor com sinal mas um condutor neutro, o que estabeleceria distancias entre os cabos que compunham o flat cable e que efetivamente recebiam os bits.


Os Flat Cables mais recentes são daqueles que tem 80 condutores em vez dos 40 tradicionais mais antigos.



Essa solução embora durante algum tempo resolvesse o problema, mais a frente esbarrou novamente na limitação de possiblidades de aumento de velocidade.



Para se solucionar esse problema criou-se então o cabo SERIAL. Agora o HD não iria receber um conjunto de 40 condutores em paralelo, mas apenas um cabo duplo(Com dois condutores), onde os bits não seriam transferidos um em cada um dos condutores designados para essa função como no Flat Cable, mas em uma sucessão de bits todos pelo mesmo cabo. Dessa forma seria possível aumentar indefinidamente a velocidade, enviando os bits em pacotes ultra velozes.


Com o lançamento do padrão SERIAL ATA I, a velocidade aumentou tímidamente de 133 para 150 megabits por segundo. Agora com a implantação do sistema serial ata II, a velocidade dobrou para 300 megabits por segundo, deixando a velocidade de 133 do padrão IDE ou PATA (paralell ATA) para trás.


Como resultado temos HDs muito mais velozes que com a tecnologia RAID então nem se fala, já que a tecnologia RAID dobra a velocidade quando são dois HDs ligados em RAID 0, mas pode-se ligar até quatro HDs em RAID.
Amplie as informações aqui passadas ou corrija o queestiver errado dando o seu parecer.
Obrigado.


quinta-feira, 18 de outubro de 2007

A EVOLUÇÃO DOS HDs


A evolução dos HDs


Os HDs ou Hard Disks (Discos Rígidos) não param de evoluir. HDs que começaram com 5 Kbytes na era dos primeiros PCs, chegam agora a 8 TERABYTES ou mais.

Na foto, conectores em placa mãe para Serial ATA.

A Hitachi apresentou em 2009 um novo cabeçote de disco-rígido com tamanho bem reduzido, o que permitiu a criação de HDs de até 4 TB para desktops na época e que hoje já são comuns. As novas cabeças mediam de 30 a 50 nanômetros e os drives de até 4 TB estavam previstos para chegar ao mercado em 2009.

Leia o artigo do The Inquirer:



No início os Hard Disks eram muito mais caros e tinham muito menos capacidade de armazenamento. Os primeiros HDs tinham o tamanho de uma caixa de sapatos e capacidade de armazenamento de apenas 5 kbytes. Eram também pesados. Os computadores de grande porte e não os micro computadores é que iniciaram o uso dos HARD DISKS, que eram pratos enormes de porcelana. Os primeiros Personal Computers na verdade costumavam nem ter discos rígidos. Normalmente eram usados com leitores de discos no qual vinha escrito o seu sistema operacional e os programas que as vezes eram escritos pelos próprios usuários. Estava em voga na época a programação para usuários de computador e existiam nas bancas de revistas, muitas publicações que discutiam o assunto, com exemplos de programação.

Hoje podemos encontrar no mercado HDs de 4 TERABITES que são os que tem o melhor custo benefício entando entre os mais populares.

HDs de 1 TERABYTE tem um bom custo benefício hoje e podem ser adquiridos pelo consumidor comum sem grandes desembolsos. 

A pouco tempo foi desenvolvida a tecnologia RAID que é uma tecnologia onde vários HDs podem ser instalados em paralelo de forma que ao ler e gravar os dados nos HDs esses dados são divididos e gravados ao mesmo tempo metade em um HD e outra metade em outro HD.

Essa tecnologia hoje não é mais tão popular como era quando foi criada, pelo fato de que com o advento dos SSDs e mais recentemente do Nvmes (Que são SSDs que conversam diretamente com o barramento dos processadores e que elevaram enormemente a velocidade de processamento dos computadores), perde sentido montar dois HDs em um siatema RAID para aumentar a velocidade, pois é muito mais eficiente colocar um NVme ou um SSD. 

veja os seguintes links:

Esse processo tem duas vantagens e uma desvantagem.

Uma das vantagens é a rapidez, pois os dados são lidos e gravados na metade do tempo, se o número de HDs em RAID for dois.

Outra vantagem é que o tamanho do HD é aumentado em dobro, mas pelo preço justo pois é necessário comprar dois HDs exatamente iguais em vez de um.

A desvantagem é que o HD é um pouco mais volátil do que o HD não RAID, pois os dados gravados dependem do bom funcionamento de dois HDs e não de um apenas. Estatisticamente a probabilidade de que em dois HDs um possa apresentar problemas é maior do que em apenas um HD.

Essa problemática eu diria é mais acentuada em HDs que utilizam a tecnologia SERIAL ATA que se tornou a tecnologia definitiva superando a TECNOLOGIA mais antiga que é a do cabo paralelo ou FLAT CABLE, ou ainda a tecnologia IDE.

É que os cabos Serial ATA tem maior probabilidade de dar mau contacto do que os cabos paralelos ou FLAT CABLEs. Isso vem sendo minimizado pela fabricação de cabos Serial Ata que tem um dispositivo que os mantém pressionados, permitindo que o mau contacto dificilmente ocorra. Dispositivos esse que tem uma espécie de mola.

Nós em nossa atividade diária com computadores temos encontrado problemas de mau contato com cabos SERIAL ATA, mas desenvolvemos um artifício que diminui sensivelmente senão elimina por completo esses mau contatos. É a colocação de um leve borrifo de spray de óleo penetrante/lubrificante nos plugues de contato tanto machos como fêmeas. Esse pequeno borrifo praticamente eliminou em definitivo os problemas que encontrávamos de falhas em contatos de cabos serial Ata. Pode-se também utilizar spray de limpa contato que funciona para qualquer tipo de plug que precise de conexão elétrica eficiente.

Há quem não goste de colocar sprays de material lubrificante penetrante em equipamentos elétricos, pois imaginam que não é o adequado, mas eu não concordo com essa posição, pois as especificações desse material mostram que são materiais dielétricos, ou seja isolantes, e podem ser empregados em equipamentos elétricos. O óleo penetrante por sua vez elimina as micro oxidações que se instalam em materiais condutores de cabos e slots de cartões e que são as responsáveis pela instalação do mau contato. Experimente e tire suas conclusões

É óbvio que é ideal que o ambiente elétrico onde o óleo será utilizado seja primeiramente limpo, pois caso contrário o óleo poderá se misturar à sujeira normalmente poeira proveniente da proliferação de ácaros o que pode comprometer o isolamento principalmente em ambiente onde ocorra diferenças de potencial elevadas. A limpeza pode ser feita por exemplo com um spray de freon, com pincel seco e até com álcool ou éter.

A tecnologia RAID (Pretendemos fazer uma postagem só para falar dela e outra só para falar da tecnologia SERIAL ATA) permite ligar em paralelo até quatro HDs, para aumentar a rapidez de leitura e escrita, como também para aumentar em muito a capacidade do HD, que hoje pode superar facilmente com o uso dessa tecnologia a casa dos 16 ou mais TERABYTE (MIL GIGABYTES).

As placas mãe modernas atualmente trazem portas SERIAL ATA para serem utilizadas com HDs ligados em RAID. 

As portas IDE que usavam flat cables são difícilmente encontradas hoje a não ser em computadores antigos, e as placas mãe modernas quando trazem só trazem uma porta IDE para ligar algum equipamento antigo. No entanto os fabricantes de DVDs players e Gravadores de DVD, hoje só os estão fabricando com saída SERIAL ATA, e brevemente as placas Mãe de computadores irão abolir de vez as portas IDE e assumir de vez a tecnologia Serial Ata.

Sobre toda essas tecnologias estaremos comentando em breve.


Dê seu parecer. Comente. Você é bem vindo.

CIÊNCIA x RELIGIÃO

NICOLAU COPÉRNICO


Nos ultimos anos a ciência vem colocando a religião em cheque, em relação a algumas crenças tradicionais. 

Como se sabe toda a estrutura das religiões ditas cristãs baseia-se na teoria da terra como o centro do Universo. Isso porque acreditam em um DEUS que se preocupou de tal forma com a terra que mandou o seu único Filho JESUS CRISTO para morrer na cruz e salvar a humanidade.

Na idade média quando se acreditava na TERRA como o centro do universo teoria essa que foi derrubada por Nicolau Copérnico, (NA FOTO) a teoria religiosa do Cristianismo fazia sentido pois a preocupação de Deus em relação a terra justificava isso, já que a terra tinha uma grande importância para DEUS. Na verdade segundo Jesus todas as coisas tem importância para DEUS pois segundo ele "Tem contados os fios de cabelo de nossas cabeças."

O estudo mais recente porém feito pelo cientista Edwin Powell HUBBLE revela que existem no universo BILHÕES de Galáxias como a via láctea que é a galáxia que abriga o nosso sistema solar com o sol e os planetas que circulam em torno da terra. Dentro de uma Galáxia existem por sua vez BILHÕES DE ESTRELAS. (Veja que eu estou falando de ESTRELAS) como o sol. Cada estrela tem em torno de si gravitando outros planetas e cada planeta seus satélites. O sol e o sistema solar é apenas uma estrela de quinta grandeza dentro do sistema solar, e portanto existem outras estrelas maiores e muito mais importantes dentro do nosso sistema solar.

No universo existem mais astros do que grãos de areia na terra. 

Dentro dessa perspectiva a Terra situa-se entre as menores preocupações de DEUS, pois que é apenas uma partícula de poeira dentro do universo infinito.

Exite no universo os chamados BURACOS NEGROS que se sabe são como vórtices que sugam para dentro de si galáxias inteiras limpando o universo como gigantescos aspiradores de pó. Existem inclusive diferentes tipos deles. Para nossa felicidade não existe nenhum desses por perto de nós. O seu centro de gravidade é tão intenso que absorve inclusive a luz. Por isso são negros.

Seria muito pouco provável então que o Senhor do Universo enviasse seu único Filho para morrer pela Humanidade, já que pela lei das probabilidades é praticamente certo que no Universo existem outros planetas habitados. Isso foi confirmado pelo próprio Jesus que disse. "Na casa de meu pai há muitas moradas".

Os MORMONS a respeito disso tem uma teoria interessante que merece análise antes de ser aceita. No Brasil os MORMONS são conhecidos como IGREJA DE JESUS CRISTO DOS SANTOS DOS ULTIMOS DIAS. Creem eles segundo revelações feitas por um profeta da sua religião que Deus tem o nome de ELOIN.

A palavra Bíblica "ELOHIM" que dizem erradamente ser o plural de "ELOHAH" é sim o plural do original "ELOHI", e como tal deve ser aceite como " DEUSES ", no sentido de a leitura Bíblica, se tornar melhor compreendida. Todavia a palavra "ELOHIM" na sua raiz etimológica, deve ser entendida, no sentido de se tornar mais elucidativa, da maneira seguinte: O sufixo "EL" deu origem á palavra hebraica "Awel" e para a lingua arabe "Awwal" da qual se originou a palavra "ALLAH", que significa "DEUS".E a palavra "LOHI", no entendimento lingüístico Bíblico, como atrás já tivemos a oportunidade de ver, significa "Homem". Assim a palavra "EL-LOHI" quer dizer: "Deus Homem" e "ELOHIM" Os Deuses Homens " ou seja "Os Deuses de Raça Humana". Todos estes significados etimológicos, não são de maneira alguma descabidos se tivermos em mente, de que "Deus o Pai" é um "HOMEM", e o nosso próprio Salvador Jesus Cristo, o disse em diversas ocasiões de que Ele era "O Filho do Homem". (Marcos 10:33 e 13:26 )

Ainda segundo os Mormons esse Deus chamado Eloin habita no SOL o nosso astro rei e é um espírito de grande glória. Seu filho de fato é JESUS CRISTO também um espírito de grande glória. Lúcifer que é o DIABO segundo a crença Mórmon se rebelou contra Deus porque não concordou com o plano Divino para redenção da humanidade. Lúcifer que quer dizer "PORTADOR DA LUZ' Exigiu de Deus compartilhar a GLÓRIA do PAI para aceitar o plano de redenção da humanidade. Por isso houve guerra no Céu e Lúcifer o DIABO junto com 1/3 dos anjos do céu foi expulso para a TERRA.
Essa informação é mais fácil de entender porque a administração do DEUS pai de Jesus Cristo estaria adstrita ao Sistema Solar e não a todo o Universo pois nesse caso sua preocupação se diluiria ao infinito.

Isso fica fácil de entender quando em determinados trechos da Bíblia Jesus diz ser o próprio DEUS, e em outros ele faz clara distinção entre ele e DEUS pai. Quando diz primeiramente a PEDRO quando ele pergunta quando poderia ver a face de DEUS, e Jesus lhe responde que já está com ele a tento tempo e ainda não sabe que está vendo em Jesus a face de Deus, e em outro versículo quando Jesus questiona. "Porque me chamais bom? Bom só existe um que é o meu pai que está nos céus." (Portanto ele não é DEUS.)

Na verdade o espírito de Jesus está em comunhão permanente com DEUS de tal forma que o pensamento de um é o pensamento do outro. Então nesse ponto se pode dizer que JESUS é o próprio DEUS ou seja é o seu INTERMEDIÁRIO.

Isso fica claro quando diz "Eu sou o caminho a verdade e a vida. Ninguém vem ao pai senão por mim." Então ele é a única ponte para DEUS. Tudo passa por ele, e ele faz então o papel do próprio DEUS embora não seja o próprio e nada do que faça o faz sem a permissão do pai.

Portanto se Jesus representa o PAI, ELOIN pode muito bem representar o PAI maior, senhor de todo o Universo. São conhecimentos que ficam muito difusos e pouco comprovados, mas que surgem ante os questionamentos crescentes que a ciência aos poucos vai desvendando.

Gostaria que você que lê essa matéria a comentasse e desse seu parecer, o que eu muito agradeço.

Filosofia e Tecnologia