http://filotec.com.br

http://filosofiaetecnologia.blog.br
ECONOMIA TECNOLOGIA FILOSOFIA SAUDE POLÍTICA GENERALIDADES CIÊNCIA AUTOHEMOTERAPIA NOSSOS VÍDEOS FACEBOOK NOSSAS PÁGINAS

QUEREM ACABAR COM A APOSENTADORIA

segunda-feira, 29 de outubro de 2007

ORGANIC LED - A NOVA TECNOLOGIA QUE IRÁ SUPERAR O LCD.

Nem bem a tecnologia de TVs e Monitores de LCD desbanca a tecnologia de TVs de PLASMA que por sua vez desbancou a tecnologia CRT (Tubos de raios catódicos), e já surge uma tecnologia melhor. Portanto a industria vai descartar as TVs de LCD, a mesma Tecnologia dos monitores de computadores da atualidade, para depois lançar a TECNOLOGIA OLED ou seja LED organico.





Sony apresentou no Japão na Display Expo 2007, várias telas de TVs… de diversas tecnologias. Mas, uma dentre as demais, se destaca… (Foto1) com resoluçaõ de 1024×600 mede apenas 3 milimetros de espessura! Desenvolvida com LED Organic tem mais brilho que as imagens de TVs convencionais. (Foto2)Seu contraste é de 100000:1 (sim, 1 milhão) em apenas 9 milimetros de espessura. A nova tecnologia emite menos calor e consome menos energia, pesa menos…e claro, custa mais que as demais.

Comente o assunto.

sexta-feira, 19 de outubro de 2007

NOVO LED DA SAMSUNG

Samsung apresenta LED de 10.000:1

Com o anúncio de novos LCDs para notebook, a Samsung surpreendeu com a apresentação de um específico, com LED branco. Com 15,4", o monitor com LED oferece mais clareza nas imagens, menor consumo de energia (requer apenas 2 watts para operar) e tem relação de contraste de 10.000:1.

ACABAM OS PROCESSADORES DE UM NÚCLEO




A muito tempo que a indústria de Processadores, mais destacadamente a INTEL e a AMD, vem se debatendo com um dilema.






Como aumentar o poder de processamento dos computadores se não é mais possível diminuir a distancia das bolachas que compõem os transitores presentes nos processadores?




Os processadores que são o cérebro dos computadores, são compostos atualmente por mais de cinco milhões de transistores mcroscópicos que estão na sua totalidade inseridos dentro de uma pastilha de silício, não maior do que uma unha. O processador tem um tamanho maior porque o espaço externo é gasto para se prover os conectores.




Pois os transistores são básicamente compostos de uma espécie de sanduiche em que por fora tem-se um material do tipo P ou N e por dentro outro também de tipo P ou N mas de polaridade contrária ao que está por fora.




Ao longo de duas décadas as velocidades foram aumentando baseadas únicamente na redução dessas distancias que chegaram ao tamanho de alguns atomos. A partir de certo ponto não foi mais possível diminuir essas distâncias.


Na verdade a dificuldade que sempre acompanhou a evolução da velocidade de processamento foi o aumento da temperatura, pois com o aumento da velocidade sempre medida em Hertz ou ciclos por segundo, uma corrente elétrica percorria todos os cinco milhões de transistores a cada ciclo. Com as velocidades em torno de 3 gigahertz ou seja 3 bilhões de ciclos por segundo, os processadores esquentaram barbaramente.
A solução para resolver esse problema foi acoplar ventoinhas mais populartmente chamadas de COOLERs, sofisticadas e caras, que pudessem refrigerar esses processadores. Foi incorporado também um sistema de segurança que desliga o procesador quando esse ultrapassa determinada temperatura, e produz também um alarme sonoro quando a temperatura chega perto do ponto de alarme.
Chegou-se a se implementar soluções de refrigeração a água, e a gas refrigerante, particularmente para aqueles aficcionados que gostavam de aumentar a frequencia dos processadores acima da especificação de fábrica, mais popularmente chamados de OVERCLOCKERS.
Diminuindo-se a distância entre as bolachas dos transistores dimuinuiu-se também a resistência elétrica desses componentes e do processador como um todo o que possibilita o aumento da sua freqüência de trabalho, mais popularmente chamada de CLOCK.
Ocorre que esse limite físico tinha que chegar a um ponto em que não fosse mais possível diminuir pois chegou a distância de uns poucos átomos.
Dessa forma a indústria de processadores partiu para a fabricação de processadores com mais de um núcleo, ou seja a princípio dois núcleos em um. Assim dois processadores distribuiriam as tarefas e o processador aumentaria sua eficiência.
Foi assim que foram lançados os PENTIUM D (O "D" de duplo.) A AMD também lançou seus modelos de núcleo duplo. Mais tarde evoluiu-se para o Pentium CORE 2 DUO. Os pentium D tinham o nome de CORE DUO.
A diferença entre o "Core 2 duo" e o "Core duo" é que no "Core 2 duo" cada um dos processadores que compõem o núcleo duplo pode acessar a memória "cache L2" individualmente, enquanto no "CORE DUO" um processador só pode acessar a memória "cache L2" depois que o outro processador acabar de acessar.
Durante o ultimo ano tivemos processadores Core 2 duo e Core duo bem como processadores de apenas um núcleo despencando de preço.
Porém dentro em pouco não encontraremos mais no mercado processadores de apenas um núcleo.
A partir dos primeiros meses de 2008, a Intel dá adeus a era dos processadores de um núcleo com o lançamento da série de dois núcleos de entrada, a Celeron E1000. O primeiro dessa família a chegar é o modelo E1200, com freqüência de 1,6 GHz, barramento externo de 800 MHz e cache L2 de 512 KB. Será vendido nos EUA a US$ 53 por unidade em lotes de mil.

Também no início do ano, a empresa vai lançar dois processadores de 45 nanômetros (Diminuindo ainda mais as bolachas dos transistores) dentro da família E4000.

Leia o artigo do Digitimes:
http://www.digitimes.com/mobos/a20071017PD218.html

Porque a tecnologia SERIAL ATA



A TECNOLOGIA IDE, Embora como padrão tenha tido a designação ATA desde sempre, o mercado inicial divulgou a tecnologia como IDE (e sucessora E-IDE).


Embora estas designações fossem meramente comerciais e não padrões oficiais, estes termos aparecem muitas vezes ao mesmo tempo: IDE e ATA.


Com a introdução do Serial ATA em 2003, esta configuração foi retroativamente renomeada para Parallel ATA (ATA Paralelo) referindo-se ao método como os dados eram transferidos pelos cabos desta interface.


A interface foi projectada inicialmente apenas para conectar discos rígidos. Com o advento de outros tipos de dispositivos de armazenamento — nomeadamente os de suporte amovível, como drives de CD-ROM, tape drives, e drives disquetes de grande capacidade, como os ZIPDRIVES, obrigou-se à introdução de extensões ao padrão inicial.


É assim que surge a extensão ATAPI (do inglês Advanced Technology Attachment Packet Interface), cuja designação formal seria ATA/ATAPI.



A evolução do acesso PIO para o DMA marcou uma nova metodologia de Processamento das CPUs, o que tornou os computadores mais rápidos, pois permitia o intercambio entre o HD e a memória sem passar pela CPU, mas obrigava a CPU a ler as palavras individualmente.


Isso era muito problemático quando o acesso se fazia a endereços fora da memória cache. Esta era a principal razão do fraco desempenho da tecnologia ATA face ao SCSI ( Uma tecnologia auternativa de discos rígidos muito mais velozes e mais caros também.) ou outras interfaces.


Assim, o DMA (e o sucessor Ultra DMA ou UDMA) reduziam drasticamente o consumo de CPU necessário para operações de leitura ou escrita nos discos, permitindo transferências de dados diretas entre o dispositivo e a memória, evitando sobrecarregar a CPU.



A tecnologia ATA foi progressivamente esbarrando em barreiras-limite da quantidade de dados que podia transferir. No entanto, a maioria seria suplantada por soluções baseadas em novos sistemas de endereçamento e técnicas de programação. Algumas destas barreiras incluem: 504 MB, 8 GB, 32 GB e 137 GB. Várias outras barreiras deveram-se a más concepções de drivers e camadas de entrada/saída nos sistemas operacionais.



Inclusive, as barreiras enunciadas surgiram devido a implementações de BIOS (Bios é o programa que primeiro roda no computador inicializando-o e que fica armazenado na memória ROM e que gerencia as entradas e saidas como teclado, mouse, drivers etc... O "i" da palavra refere-se a IN de entrada e o "o" da palavra refrere-se a OUT de saida.) muito fracas, o que se compreende já que a evolução dos discos entre o intervalo 1GB-8GB se dava de forma muito lenta.



Um dos problemas que impedia o constante aumento da velocidade de transferência de dados nos Discos Rígidos padrão IDE, ou Cabo paralelo, é que com o aumento da velocidade tinha-se no Flat Cable uma frequência cada vez maior.


Como se sabe, ao se ter uma freqüência elevada transitando em cabos próximos, instala-se entre eles uma indutância que pode se comportar como um curto entre esses dois cabos, pois a freqüência elevada consegue transitar em um capacitor.



Como nos cabos paralelos há a proximidade entre os cabos que compõem o flat Cable, começou a ocorrer interferências, à medida que a velocidade de transferência aumentava, a interferência se ampliava, de modo que esse fator limitou a possibilidade de se aumentar indefinidamente a velocidade de transferência de dados nos HDs com cabo paralelo.



A primeira solução que se criou para contornar esse problema foi a colocação de um condutor neutro entre os condutores que efetivamente compunham o cabo paralelo. Dessa forma um condutor não teria a seu lado outro condutor com sinal mas um condutor neutro, o que estabeleceria distancias entre os cabos que compunham o flat cable e que efetivamente recebiam os bits.


Os Flat Cables mais recentes são daqueles que tem 80 condutores em vez dos 40 tradicionais mais antigos.



Essa solução embora durante algum tempo resolvesse o problema, mais a frente esbarrou novamente na limitação de possiblidades de aumento de velocidade.



Para se solucionar esse problema criou-se então o cabo SERIAL. Agora o HD não iria receber um conjunto de 40 condutores em paralelo, mas apenas um cabo duplo(Com dois condutores), onde os bits não seriam transferidos um em cada um dos condutores designados para essa função como no Flat Cable, mas em uma sucessão de bits todos pelo mesmo cabo. Dessa forma seria possível aumentar indefinidamente a velocidade, enviando os bits em pacotes ultra velozes.


Com o lançamento do padrão SERIAL ATA I, a velocidade aumentou tímidamente de 133 para 150 megabits por segundo. Agora com a implantação do sistema serial ata II, a velocidade dobrou para 300 megabits por segundo, deixando a velocidade de 133 do padrão IDE ou PATA (paralell ATA) para trás.


Como resultado temos HDs muito mais velozes que com a tecnologia RAID então nem se fala, já que a tecnologia RAID dobra a velocidade quando são dois HDs ligados em RAID 0, mas pode-se ligar até quatro HDs em RAID.
Amplie as informações aqui passadas ou corrija o queestiver errado dando o seu parecer.
Obrigado.


quinta-feira, 18 de outubro de 2007


A evolução dos HDs


Os HDs ou Hard Disks (Discos Rígidos) não param de evoluir. A empresa Hitachi está prometendo HDs de 4 Terabytes em 2009.


Na foto, conectores em placa mãe para Serial ATA.


A Hitachi apresentou um novo cabeçote de disco-rígido com tamanho bem reduzido, o que permitirá a criação de HDs de até 4 TB para desktops. As novas cabeças medem de 30 a 50 nanometros e os drives de até 4 TB estão previstos para chegar ao mercado em 2009.

Leia o artigo do The Inquirer:



No início os Hard Disks eram muito mais caros e tinham muito menos capacidade de armazenamento. Os primeiros HDs tinham o tamanho de uma caixa de sapatos e capacidade de armazenamento de apenas 5 kbytes. Eram também pesados. Os computadores de grande porte e não os micro computadores é que iniciaram o uso dos HARD DISKS, que eram pratos enormes de porcelana.



Hoje podemos encontrar no mercado HDs de 400 e até 500 gigabytes mas pelo que se vê em breve estarão superados.



HDs de 320 Gigabytes tem um bom custo benefício hoje e podem ser adquiridos pelo consumidor comum sem grandes desembolsos. Esses HDs podem ser instalados em RAID que é uma tecnologia onde vários HDs podem ser instalados em paralelo de forma que ao ler e gravar os dados nos HDs esses dados são divididos e gravados ao mesmo tempo metade em um HD e outra metade em outro HD.



Esse processo tem duas vantagens e uma desvantagem.



Uma das vantagens é a rapidez, pois os dados são lidos e gravados na metade do tempo, se o número de HDs em RAID for dois.



Outra vantagem é que o tamanho do HD é aumentado em dobro, mas pelo preço justo pois é necessário comprar dois HDs exatamente iguais em vez de um.



A desvantagem é que o HD é um pouco mais volátil do que o HD não RAID, pois os dados gravados dependem do bom funcionamento de dois HDs e não de um apenas. Estatísticamente a probabilidade de que em dois HDs um possa apresentar problemas é maior do que em apenas um HD.



Essa problemática eu diria é mais acentuada em HDs que utilizam a tecnologia SERIAL ATA que se tornará a tecnologia definitiva superando a TECNOLOGIA mais antiga que é a do cabo paralelo ou FLAT CABLE, ou ainda a tecnologia IDE.



É que os cabos Serial ATA tem maior probabilidade de dar mau contacto do que os cabos paralelos ou FLAT CABLEs. Isso vem sendo minimizado pela fabricação de cabos Serial Ata que tem um dispositivo que os mantém pressionados, permitindo que o mau contacto difícilmente ocorra. Dispositivos esse que tem uma espécie de mola.



Nós em nossa atividade diária com computadores temos encontrado problemas de mau contacto com cabos SERIAL ATA, mas desenvolvemos um artifício que diminui sensívelmente senão elimina por completo esses mau contactos. É a colocação de um leve borrifamento de spray de óleo penetrante/lubrificante nos plugues de contacto tanto machos como fêmeas. Esse pequeno borrifamento práticamente eliminou em definitivo os problemas que encontravamos de falhas em contactos de cabos serial Ata.



Há quem não goste de colocar sprays de material lubrificante penetrante em equipamentos elétricos, pois imaginam que não é o adequado, mas eu não concordo com essa posição, pois as especificações desse material mostram que são materiais dielétricos, ou seja isolantes, e podem ser empregados em equipamentos elétricos. O óleo penetrante por sua vez elimina as micro oxidações que se instalam em materiais condutores de cabos e slots de cartões e que são as responsáveis pela instalação do mau contacto. Experimente e tire suas conclusões



É óbvio que é ideal que o ambiente elétrico onde o óleo será utilizado seja primeiramente limpo, pois caso contrário o óleo poderá se misturar à sujeira normalmente poeira proveniente da proliferação de acaros o que pode comprometer o isolamento principalmente em ambiente onde ocorra diferenças de potencial elevadas. A limpeza pode ser feita por exemplo com um spray de freon, com pincel seco e até com alcool ou eter.



A tecnologia RAID (Pretendemos fazer uma postagem só para falar dela e outra só para falar da tecnologia SERIAL ATA) permite ligar em paralelo até quatro HDs, para aumentar a rapidez de leitura e escrita, como também para aumentar em muito a capacidade do HD, que hoje pode superar fácilmente com o uso dessa tecnologia a casa do TERABYTE (MIL GIGABYTES).



As placas mãe modernas atualmente já trazem grande número de portas SERIAL ATA para serem utilizadas com HDs ligados em RAID. Um exemplo delas é a placa Mãe do fabricante ASUS da série P5B (Existem vários modelos da ASUS que começam com essa sigla.) Essa série de placas mãe traz 6 portas serial ATA e mais uma porta para uso da tecnologia RAID com o uso de HDs Externos.



Outras Placas Mãe como por exemplo do fabricante Gigabyte e INTEL trazem quatro portas Serial ATA para uso dessa tecnologia.



As portas IDE estão cada vez mais em decadência, e as placas mãe modernas só trazem hoje uma porta IDE para ligar os leitores de CD e DVD. No entanto os fabricantes de DVDs players e Gravadores de DVD, já os estão fabricando com saida SERIAL ATA, e brevemente as placas Mãe de computadores irão abolir de vez as portas IDE e assumir de vez a tecnologia Serial Ata.


Sobre toda essas tecnologias estaremos comentando em breve.


Dê seu parecer. Comente. Você é bem vindo.

CIÊNCIA x RELIGIÃO



Nos ultimos anos a ciência vem colocando a religião em cheque, em relação a algumas crenças tradicionais.





Como se sabe toda a estrutura das religiões ditas cristãs baseia-se na teoria da terra como o centro do Universo. Isso porque acreditam em um DEUS que se preocupou de tal forma com a terra que mandou o seu único Filho JESUS CRISTO para morrer na cruz e salvar a humanidade.





Na idade média quando se acreditava na TERRA como o centro do universo teoria essa que foi derrubada por Nicolau Copérnico, (NA FOTO) a teoria religiosa do Cristianismo fazia sentido pois a preocupação de Deus em relação a terra justificava isso, já que a terra tinha uma grande importância para DEUS. Na verdade segundo Jesus todas as coisas tem importância para DEUS pois segundo ele "Tem contados os fios de cabelo de nossas cabeças."

O estudo mais recente porém feito pelo cientista Edwin Powell HUBBLE revela que existem no universo BILHÕES de Galáxias como a via láctea que é a galáxia que abriga o nosso sistema solar com o sol e os planetas que circulam em torno da terra. Dentro de uma Galáxia existem por sua vez BILHÕES DE ESTRELAS. (Veja que eu estou falando de ESTRELAS) como o sol. Cada estrela tem em torno de si gravitando outros planetas e cada planeta seus satélites. O sol e o sistema solar é apenas uma estrela de quinta grandeza dentro do sistema solar, e portanto existem outras estrelas maiores e muito mais importantes dentro do nosso sistema solar.

No universo existem mais astros do que grãos de areia na terra.

Dentro dessa perspectiva a Terra situa-se entre as menores preocupações de DEUS, pois que é apenas uma partícula de poeira dentro do universo infinito.

Exite no universo os chamados BURACOS NEGROS que se sabe são como vórtices que sugam para dentro de si galáxias inteiras limpando o universo como gigantescos aspiradores de pó. Existem inclusive diferentes tipos deles. Para nossa felicidade não existe nenhum desses por perto de nós. O seu centro de gravidade é tão intenso que absorve inclusive a luz. Por iso são negros.

Seria muito pouco provável então que o Senhor do Universo enviasse seu único Filho para morrer pela Humanidade, já que pela lei das probabilidades é práticamente certo que no Universo existem outros planetas habitados. Isso foi confirmado pelo próprio Jesus que disse. "Na casa de meu pai há muitas moradas".

Os MORMONS a respeito disso tem uma teoria interessante que merece análise antes de ser aceita. No Brasil os MORMONS são conhecidos como IGREJA DE JESUS CRISTO DOS SANTOS DOS ULTIMOS DIAS. Crêem ele segundo revelações feitas por um profeta da sua religião que Deus tem o nome de ELOIN.

A palavra Bíblica "ELOHIM" que dizem erradamente ser o plural de "ELOHAH" é sim o plural do original "ELOHI", e como tal deve ser aceite como " DEUSES ", no sentido de a leitura Bíblica, se tornar melhor compreendida. Todavia a palavra "ELOHIM" na sua raiz etimológica, deve ser entendida, no sentido de se tornar mais elucidativa, da maneira seguinte: O sufixo "EL" deu origem á palavra hebraica "Awel" e para a lingua arabe "Awwal" da qual se originou a palavra "ALLAH", que significa "DEUS".E a palavra "LOHI", no entendimento lingüístico Bíblico, como atrás já tivemos a oportunidade de ver, significa "Homem". Assim a palavra "EL-LOHI" quer dizer: "Deus Homem" e "ELOHIM" Os Deuses Homens " ou seja "Os Deuses de Raça Humana".Todos estes significados etimológicos, não são de maneira alguma descabidos se termos em mente, de que "Deus o Pai" é um "HOMEM", e o nosso próprio Salvador Jesus Cristo, o disse em diversas ocasiões de que Ele era "O Filho do Homem". (Marcos 10:33 e 13:26 )
Ainda segundo os Mormons esse Deus chamado Eloin habita no SOL o nosso astro rei e é um espírito de grande glória. Seu filho de fato é JESUS CRISTO também um espírito de grande glória. Lúcifer que é o DIABO segundo a crença Mórmon se rebelou contra Deus porque não concordou com o plano Divino para redenção da humanidade. Lúcifer que quer dizer "PORTADOR DA LUZ' Exigiu de Deus compartilhar a GLÓRIA do PAI para aceitar o plano de redenção da humanidade. Por isso houve guerra no Céu e Lúcifer o DIABO junto com 1/3 dos anjos do céu foi expulso para a TERRA.
Essa informação é mais fácil de entender porque a administração do DEUS pai de Jesus Cristo estaria adstrita ao Sistema Solar e não a todo o Universo pois nesse caso sua preocupação se diluiria ao infinito.
Isso fica fácil de entender Quado em determinados trechos da Bíblia Jesus diz ser o próprio DEUS, e em outros ele faz clara distinção entre ele e DEUS pai. Quando diz primeiramente a PEDRO quando ele pergunta quando poderia ver a face de DEUS, e Jesus lhe responde que já está com ele a tento tempo e ainda não sabe que está vendo em Jesus a face de Deus, e em outro versículo quando Jesus questiona. "Porque me chamais bom? Bom só existe um que é o meu pai que está nos céus." (Portanto ele não é DEUS.)
Na verdade o espírito de Jesus está em comunhão permanente com DEUS de tal forma que o pensamento de um é o pensamento do outro. Então nesse ponto se pode dizer que JESUS é o próprio DEUS ou seja é o seu INTERMEDIÁRIO.
Isso fica claro quando diz "Eu sou o caminho a verdade e a vida. Ninguém vem ao pai senão por mim." Então ele é a única ponte para DEUS. Tudo passa por ele, e ele faz então o papel do próprio DEUS embora não seja o próprio e nada do que faça o faz sem a permissão do pai.
Portanto se Jesus representa o PAI, ELOIN pode muito bem representar o PAI maior, senhor de todo o Universo. São conhecimentos que ficam muito difusos e pouco comprovados, mas que surgem ante os questionamentos crescentes que a ciência aos poucos vai desvendando.
Gostaria que você que lê essa matéria a comentasse e desse seu parecer, o que eu muito agradeço.
Carlos Roberto Honorio da Silva

SOMOS TODOS CHAPECOENSES