Conheça melhor as magrelas turbinadas e fique à vontade para adotar esse meio de transporte

A bicicleta elétrica, conhecida também como ebike, nada mais é do que um modelo que utiliza um motor elétrico integrado para dar aquela mãozinha na propulsão do veículo. Existe uma grande variedade de bicicletas elétricas: algumas mais leves atingem velocidades entre 20 km/h e 32 km/h, enquanto outras mais poderosas chegam à marca de 45 km/h. Elas utilizam baterias recarregáveis e vêm ganhando popularidade no Brasil e mundo a fora.
História
As primeiras patentes de bicicletas elétricas datam do fim do século XIX. Em 1895, Ogdem Bolton Jr. inventou um modelo sem engrenagens e com motor que alcançava 100 amperes de uma bateria de 10 volts. Dois anos depois, Hosea W. Libbey of Boston inventou um modelo que utilizava dois motores.
Diversos tipos diferentes surgiram durante o século XX. Como o de Jesse D. Trucker, que teve a ideia de produzir um motor com engrenagens internas que permitiam que a roda da bicicleta ficasse livre, sendo possível pedalar com ou sem o auxílio elétrico.
Nos anos 90 foram inventados os sensores de torque e controladores de potência. Com início da era tecnológica, o mercado de bicicletas elétricas começou a se expandir graças à redução do preço dos componentes e o surgimento de novas tecnologias, inclusive com formas inovadoras de recarregar a bateria, como energia do movimento e solar.
Hoje, bicicleta elétrica é um mercado em expansão com grandes indústrias pelo mundo. Em 2009, foi estimada a existência de 200 mil bicicletas elétricas pelos Estados Unidos. Na Alemanha, a produção ultrapassa a marca de 400 mil unidades. No Brasil, o mercado ainda está em desenvolvimento e a maioria dos modelos presentes é importada, apesar de haver alguns locais que fabricam ebikestupiniquins.
Vantagens
O principal benefício da bicicleta elétrica com relação à bike normal é sua praticidade. Ela permite usar um veículo praticamente não poluente para circular pela cidade de forma prática e rápida. Para quem tem limitação física ou não quer chegar suado ao trabalho, a bicicleta elétrica cumpre uma função especial na mobilidade urbana, criando uma independência com relação aos carros e à lotação do transporte público. Ela incentiva o exercício físico ao mesmo tempo em que é uma grande aliada em trajetos com subidas. O fato de poder contar com o auxílio elétrico e exigir menos esforço nas pedaladas torna as pessoas mais confiantes a percorrerem distâncias um pouco maiores.
A diminuição do gasto com o deslocamento é notável: para a maioria dos carros o quilômetro rodado alcança mais de R$ 0,30 em grandes centros urbanos. A bicicleta elétrica utiliza o equivalente a R$ 0,02 de energia elétrica. Outros gastos, como estacionamento, seguro e impostos também são muito menores com bicicletas.
Características
Existem dois grandes grupos de bicicletas elétricas: o primeiro é o dos pedelecs, que são as bikes sem acelerador e cujos motores são ativados conforme o ciclista pedala. Nesse caso, a bicicleta só irá se locomover a partir do ato de pedalar. O outro grupo abrange as bicicletas elétricas com acelerador. Elas possuem as opções de só acelerar, só pedalar ou uma combinação entre as duas funções.
Em ambos os grupos, os principais componentes de uma bicicleta elétrica são o motor; a bateria, que é responsável por alimentar o motor; o controlador eletrônico ou módulo que controla a velocidade do motor; o acelerador; o sistema de pedal assistido (PAS); e o painel de instrumento, onde é possível acompanhar em tempo real as informações da bicicleta, como nível de bateria e velocidade.
É necessário discutir uma legislação que incentive o uso da bicicleta elétrica. A importância dessa lei abrange questões como o desestímulo ao uso do automóvel e o reforço à revindicação por infraestrutura para ciclistas.
Muitos países já promulgaram leis que funcionam bem para regulamentar o uso das bicicletas elétricas. Para isso, foi preciso definir características para fazer a classificação do que é ou não é ebike. As bikes elétricas podem ter características muito distintas, por isso, não é suficiente apenas definir uma bike elétrica como um veículo de duas rodas com sistema de tração elétrico. Bicicletas elétricas devem ser configuradas em função do uso pretendido. Por isso, deve ser levado em consideração velocidade máxima, autonomia, torque, potência, tipo de aceleração e sensores, resistência contra chuva e maresia, peso, tipo de tração, etc. Por enquanto, a falta de consideração e conhecimento atrasa o progresso e a ordem de inserção desses veículos que, sem dúvida, vão conquistar um lugar expressivo na mobilidade futura.
Benefícios de possuir uma bicicleta elétrica
• Uma ótima oportunidade de entrar em forma;• Você pode economizar uma boa grana;• Não existe a necessidade de licenças ou impostos para pilotar uma;• A bicicleta é considerada um dos mais rápidos meios de transporte nas grandes cidades;• Você não vai precisar chegar suado no trabalho por ir de bike.
Tudo isso sem contar os diversos benefícios que uma bicicleta convencional traz (veja mais aqui).
Problemas
Deve-se levar em conta a poluição indireta gerada pela bicicleta elétrica na geração de energia elétrica para sua utilização, além da sua fabricação e descarte, e nesse casos as baterias são o principal problema. Mesmo assim, os efeitos positivos para o meio ambiente ainda levam vantagem, já que uma ebike tem um impacto ambiental muito menor que os automóveis convencionais.
As baterias, antes feitas de chumbo e ácidos, estão sendo substituídas pelas de íons de lítio, que além de serem mais duradoras (possuem normalmente entre 400 e 2000 ciclos de recarga), são bem menos tóxicas e podem ser recicladas. Sem contar que a tecnologia para criar baterias com maior longevidade e menor impacto de descarte estão sendo desenvolvidas a cada dia. E não podemos esquecer dos modelos de bikes elétricas solares.
Legislação
Um dos principais problemas da bicicleta elétrica no Brasil é a falta de legislação para esse tipo de veículo. Em abril de 2012, um ciclista foi multado no Rio de Janeiro ao passar por uma blitz da Lei Seca que estava invadindo o espaço destinado a ciclovia. Após esse incidente, em dezembro de 2013, o Conselho Nacional de Trânsito (Contran) publicou a Resolução 465, que regulamentou o uso das bicicletas elétricas no país, equiparando às bicicletas comuns. Com essa nova resolução, elas são dispensadas de registro, tributação, habilitação e seguro obrigatório. Porém, precisam ter o limite de potência máxima em 350 watts, não podem possuir acelerador e ter velocidade máxima de 25 km/h. Além disso, as bicicletas elétricas devem possuir o indicador de velocidade, campainha, sinalização noturna (dianteira, lateral e traseira), espelhos retrovisores além do uso obrigatório do capacete de ciclista.
Conheça melhor as magrelas turbinadas e fique à vontade para adotar esse meio de transporte

A bicicleta elétrica, conhecida também como ebike, nada mais é do que um modelo que utiliza um motor elétrico integrado para dar aquela mãozinha na propulsão do veículo. Existe uma grande variedade de bicicletas elétricas: algumas mais leves atingem velocidades entre 20 km/h e 32 km/h, enquanto outras mais poderosas chegam à marca de 45 km/h. Elas utilizam baterias recarregáveis e vêm ganhando popularidade no Brasil e mundo a fora.
História
As primeiras patentes de bicicletas elétricas datam do fim do século XIX. Em 1895, Ogdem Bolton Jr. inventou um modelo sem engrenagens e com motor que alcançava 100 amperes de uma bateria de 10 volts. Dois anos depois, Hosea W. Libbey of Boston inventou um modelo que utilizava dois motores.
Diversos tipos diferentes surgiram durante o século XX. Como o de Jesse D. Trucker, que teve a ideia de produzir um motor com engrenagens internas que permitiam que a roda da bicicleta ficasse livre, sendo possível pedalar com ou sem o auxílio elétrico.
Nos anos 90 foram inventados os sensores de torque e controladores de potência. Com início da era tecnológica, o mercado de bicicletas elétricas começou a se expandir graças à redução do preço dos componentes e o surgimento de novas tecnologias, inclusive com formas inovadoras de recarregar a bateria, como energia do movimento e solar.
Hoje, bicicleta elétrica é um mercado em expansão com grandes indústrias pelo mundo. Em 2009, foi estimada a existência de 200 mil bicicletas elétricas pelos Estados Unidos. Na Alemanha, a produção ultrapassa a marca de 400 mil unidades. No Brasil, o mercado ainda está em desenvolvimento e a maioria dos modelos presentes é importada, apesar de haver alguns locais que fabricam ebikestupiniquins.
Vantagens
O principal benefício da bicicleta elétrica com relação à bike normal é sua praticidade. Ela permite usar um veículo praticamente não poluente para circular pela cidade de forma prática e rápida. Para quem tem limitação física ou não quer chegar suado ao trabalho, a bicicleta elétrica cumpre uma função especial na mobilidade urbana, criando uma independência com relação aos carros e à lotação do transporte público. Ela incentiva o exercício físico ao mesmo tempo em que é uma grande aliada em trajetos com subidas. O fato de poder contar com o auxílio elétrico e exigir menos esforço nas pedaladas torna as pessoas mais confiantes a percorrerem distâncias um pouco maiores.
A diminuição do gasto com o deslocamento é notável: para a maioria dos carros o quilômetro rodado alcança mais de R$ 0,30 em grandes centros urbanos. A bicicleta elétrica utiliza o equivalente a R$ 0,02 de energia elétrica. Outros gastos, como estacionamento, seguro e impostos também são muito menores com bicicletas.
Características
Existem dois grandes grupos de bicicletas elétricas: o primeiro é o dos pedelecs, que são as bikes sem acelerador e cujos motores são ativados conforme o ciclista pedala. Nesse caso, a bicicleta só irá se locomover a partir do ato de pedalar. O outro grupo abrange as bicicletas elétricas com acelerador. Elas possuem as opções de só acelerar, só pedalar ou uma combinação entre as duas funções.
Em ambos os grupos, os principais componentes de uma bicicleta elétrica são o motor; a bateria, que é responsável por alimentar o motor; o controlador eletrônico ou módulo que controla a velocidade do motor; o acelerador; o sistema de pedal assistido (PAS); e o painel de instrumento, onde é possível acompanhar em tempo real as informações da bicicleta, como nível de bateria e velocidade.
É necessário discutir uma legislação que incentive o uso da bicicleta elétrica. A importância dessa lei abrange questões como o desestímulo ao uso do automóvel e o reforço à revindicação por infraestrutura para ciclistas.
Muitos países já promulgaram leis que funcionam bem para regulamentar o uso das bicicletas elétricas. Para isso, foi preciso definir características para fazer a classificação do que é ou não é ebike. As bikes elétricas podem ter características muito distintas, por isso, não é suficiente apenas definir uma bike elétrica como um veículo de duas rodas com sistema de tração elétrico. Bicicletas elétricas devem ser configuradas em função do uso pretendido. Por isso, deve ser levado em consideração velocidade máxima, autonomia, torque, potência, tipo de aceleração e sensores, resistência contra chuva e maresia, peso, tipo de tração, etc. Por enquanto, a falta de consideração e conhecimento atrasa o progresso e a ordem de inserção desses veículos que, sem dúvida, vão conquistar um lugar expressivo na mobilidade futura.
Benefícios de possuir uma bicicleta elétrica
• Uma ótima oportunidade de entrar em forma;• Você pode economizar uma boa grana;• Não existe a necessidade de licenças ou impostos para pilotar uma;• A bicicleta é considerada um dos mais rápidos meios de transporte nas grandes cidades;• Você não vai precisar chegar suado no trabalho por ir de bike.
Tudo isso sem contar os diversos benefícios que uma bicicleta convencional traz (veja mais aqui).
Problemas
Deve-se levar em conta a poluição indireta gerada pela bicicleta elétrica na geração de energia elétrica para sua utilização, além da sua fabricação e descarte, e nesse casos as baterias são o principal problema. Mesmo assim, os efeitos positivos para o meio ambiente ainda levam vantagem, já que uma ebike tem um impacto ambiental muito menor que os automóveis convencionais.
As baterias, antes feitas de chumbo e ácidos, estão sendo substituídas pelas de íons de lítio, que além de serem mais duradoras (possuem normalmente entre 400 e 2000 ciclos de recarga), são bem menos tóxicas e podem ser recicladas. Sem contar que a tecnologia para criar baterias com maior longevidade e menor impacto de descarte estão sendo desenvolvidas a cada dia. E não podemos esquecer dos modelos de bikes elétricas solares.
Legislação
Um dos principais problemas da bicicleta elétrica no Brasil é a falta de legislação para esse tipo de veículo. Em abril de 2012, um ciclista foi multado no Rio de Janeiro ao passar por uma blitz da Lei Seca que estava invadindo o espaço destinado a ciclovia. Após esse incidente, em dezembro de 2013, o Conselho Nacional de Trânsito (Contran) publicou a Resolução 465, que regulamentou o uso das bicicletas elétricas no país, equiparando às bicicletas comuns. Com essa nova resolução, elas são dispensadas de registro, tributação, habilitação e seguro obrigatório. Porém, precisam ter o limite de potência máxima em 350 watts, não podem possuir acelerador e ter velocidade máxima de 25 km/h. Além disso, as bicicletas elétricas devem possuir o indicador de velocidade, campainha, sinalização noturna (dianteira, lateral e traseira), espelhos retrovisores além do uso obrigatório do capacete de ciclista.
Wellington
Os smartphones da Microsoft Lumia 435 e Lumia 532 com TV digital chegam hoje ao mercado brasileiro. Os modelos, ambos com suporte a dois chips, custam R$ 400 e R$ 500, respectivamente.
Abaixo você confere a tabela com as respectivas especificações técnicas:

Lumia 435

Lumia 532

Abaixo você confere a tabela com as respectivas especificações técnicas:

Lumia 435

Lumia 532

Os smartphones da Microsoft Lumia 435 e Lumia 532 com TV digital chegam hoje ao mercado brasileiro. Os modelos, ambos com suporte a dois chips, custam R$ 400 e R$ 500, respectivamente.
Abaixo você confere a tabela com as respectivas especificações técnicas:

Lumia 435

Lumia 532

Abaixo você confere a tabela com as respectivas especificações técnicas:

Lumia 435

Lumia 532

Wellington
HPV é a sigla em inglês para papilomavírus humano, nome que engloba mais de cem tipos diferentes de vírus, que podem provocar a formação de verrugas na pele das regiões oral (lábios, boca, cordas vocais, etc.), anal, genital e da uretra.
O que tem a ver com câncer?
Existem muitos tipos diferentes de HPV, porém somente 15 são considerados de alto risco e estão associados ao desenvolvimento do câncer de colo de útero. Por isso é importante lembrar que, na maioria das infecções por HPV, as pessoas não apresentam nenhum sintoma na fase inicial, mas depois de alguns anos é possível evoluir para quadros de sangramento vaginal intermitente ou após a relação sexual, com a presença desecreção vaginal anormal. Então, já sabe! Fique atenta a esses sintomas.
E para os homens? Algum perigo?
Sim! O tumor peniano é raro, mas representa 0,4% dos carcinomas malignos do sexo masculino.
Já nas mulheres… o câncer de colo de útero é bem mais comum: estima-se a ocorrência de cerca de 15.600 novos casos anualmente! O que significa que é o terceiro câncer mais comum entre as brasileiras, atrás apenas dos tumores de mama e colorretal.
O mais preocupante é que, segundo dados da Organização Mundial da Saúde:
- 291 milhões de mulheres no mundo são portadoras do HPV;
- 32% estão infectadas pelos tipos 16, 18 ou ambos, responsáveis por 70% dos casos de câncer de colo de útero.
Como é transmitido?
O HPV é transmitido pelo contato direto com a pele nas relações sexuais. Estudos demonstram que 75% das mulheres sexualmente ativas entrarão em contato com esse vírus mais cedo ou mais tarde e que a frequência da infecção está relacionada com o número maior de parceiros sexuais, bem como com a ausência de métodos de prevenção. Por isso a importância de se proteger e usar camisinha!
Quais cuidados devo tomar?
A boa notícia é que foi lançada uma vacina que previne a infecção pelo HPV. Ela protege contra os tipos 16 e 18, de alto risco para o câncer de colo de útero, e contra os tipos 6 e 11. Atenção: a vacina deve ser dada em três doses! A segunda, um mês após a aplicação da primeira, e a terceira, seis meses depois da segunda. O Sistema Único de Saúde (SUS) disponibiliza a vacina gratuitamente nos postos de saúde para meninas de 9 a 11 anos de idade. Cerca de 2 milhões de meninas de já foram imunizadas contra quatro tipos do vírus! 
Lembre-se!
Essa precaução deve ser somada ao uso do preservativo e ao exame de Papanicolau (lembre-se de fazer uma vez ao ano após o início da vida sexual), pois ele consegue detectar as lesões precursoras do câncer de colo de útero. Quando as alterações são identificadas e tratadas, é possível prevenir a doença em 100% dos casos, por isso a importância de tirar todas as dúvidas com seu médico!
E você? Já fez o exame este ano?
HPV é a sigla em inglês para papilomavírus humano, nome que engloba mais de cem tipos diferentes de vírus, que podem provocar a formação de verrugas na pele das regiões oral (lábios, boca, cordas vocais, etc.), anal, genital e da uretra.
O que tem a ver com câncer?
Existem muitos tipos diferentes de HPV, porém somente 15 são considerados de alto risco e estão associados ao desenvolvimento do câncer de colo de útero. Por isso é importante lembrar que, na maioria das infecções por HPV, as pessoas não apresentam nenhum sintoma na fase inicial, mas depois de alguns anos é possível evoluir para quadros de sangramento vaginal intermitente ou após a relação sexual, com a presença desecreção vaginal anormal. Então, já sabe! Fique atenta a esses sintomas.
E para os homens? Algum perigo?
Sim! O tumor peniano é raro, mas representa 0,4% dos carcinomas malignos do sexo masculino.
Já nas mulheres… o câncer de colo de útero é bem mais comum: estima-se a ocorrência de cerca de 15.600 novos casos anualmente! O que significa que é o terceiro câncer mais comum entre as brasileiras, atrás apenas dos tumores de mama e colorretal.
O mais preocupante é que, segundo dados da Organização Mundial da Saúde:
- 291 milhões de mulheres no mundo são portadoras do HPV;
- 32% estão infectadas pelos tipos 16, 18 ou ambos, responsáveis por 70% dos casos de câncer de colo de útero.
Como é transmitido?
O HPV é transmitido pelo contato direto com a pele nas relações sexuais. Estudos demonstram que 75% das mulheres sexualmente ativas entrarão em contato com esse vírus mais cedo ou mais tarde e que a frequência da infecção está relacionada com o número maior de parceiros sexuais, bem como com a ausência de métodos de prevenção. Por isso a importância de se proteger e usar camisinha!
Quais cuidados devo tomar?
A boa notícia é que foi lançada uma vacina que previne a infecção pelo HPV. Ela protege contra os tipos 16 e 18, de alto risco para o câncer de colo de útero, e contra os tipos 6 e 11. Atenção: a vacina deve ser dada em três doses! A segunda, um mês após a aplicação da primeira, e a terceira, seis meses depois da segunda. O Sistema Único de Saúde (SUS) disponibiliza a vacina gratuitamente nos postos de saúde para meninas de 9 a 11 anos de idade. Cerca de 2 milhões de meninas de já foram imunizadas contra quatro tipos do vírus! 
Lembre-se!
Essa precaução deve ser somada ao uso do preservativo e ao exame de Papanicolau (lembre-se de fazer uma vez ao ano após o início da vida sexual), pois ele consegue detectar as lesões precursoras do câncer de colo de útero. Quando as alterações são identificadas e tratadas, é possível prevenir a doença em 100% dos casos, por isso a importância de tirar todas as dúvidas com seu médico!
E você? Já fez o exame este ano?
Wellington

(Foto: reprodução/Kernel mag)
Humm.. deta vez o candidato um computador fabricado em 1986, com 8 MHz, 4 MB de RAM, disco rígido de 50 MB e uma tela de 512 x 384 (em preto e branco, aliás) se conectar à internet? O engenheiro americano Jeff Keacher conseguiu integrar uma linha telefônica no seu pequeno Mac Plus de duas décadas atrás e realizar a façanha.
O computador usado pelo engenheiro estava há mais de 20 anos parado. Ao tentar ligar o dispositivo, Keacher foi surpreendido por uma explosão no hard drive externo, que após anos desligado teve um dos seus capacitores sobrecarregado após receber uma corrente elétrica. Entretanto, esse foi o problema mais fácil de solucionar, já que encontrou rapidamente capacitores reservas para fazer a máquina funcionar.

O problema maior era arranjar um navegador e um conjunto de protocolos TCP/IP compatível com o sistema operacional System 7.0, que ainda operava no dispositivo. O browser foi encontrado na web em um fórum sobre sites em FTP, uma versão antiga do MacWeb 2.0 era antiga o suficiente para rodar na máquina e ainda fazer loading de sites em HTML e ainda entender o HTTP.
Como o Mac Plus não tinha entrada Ethernet, a solução foi usar um dos novos computadores em miniatura Raspberry Pi, adaptadores e alguns drivers lançados pela Apple nos anos 1980.
Voilà, Keacher conseguiu se conectar à 19 Kbps. Uma velocidade extremamente lenta e inviável para o funcionamento dos sistemas atuais, mas o engenheiro conseguiu seu objetivo, que era "apresentar o Mac para a internet e o encontro foi bem sucedido", segundo ele mesmo.
Confira o vídeo fascinante.

(Foto: reprodução/Kernel mag)
Humm.. deta vez o candidato um computador fabricado em 1986, com 8 MHz, 4 MB de RAM, disco rígido de 50 MB e uma tela de 512 x 384 (em preto e branco, aliás) se conectar à internet? O engenheiro americano Jeff Keacher conseguiu integrar uma linha telefônica no seu pequeno Mac Plus de duas décadas atrás e realizar a façanha.
O computador usado pelo engenheiro estava há mais de 20 anos parado. Ao tentar ligar o dispositivo, Keacher foi surpreendido por uma explosão no hard drive externo, que após anos desligado teve um dos seus capacitores sobrecarregado após receber uma corrente elétrica. Entretanto, esse foi o problema mais fácil de solucionar, já que encontrou rapidamente capacitores reservas para fazer a máquina funcionar.

O problema maior era arranjar um navegador e um conjunto de protocolos TCP/IP compatível com o sistema operacional System 7.0, que ainda operava no dispositivo. O browser foi encontrado na web em um fórum sobre sites em FTP, uma versão antiga do MacWeb 2.0 era antiga o suficiente para rodar na máquina e ainda fazer loading de sites em HTML e ainda entender o HTTP.
Como o Mac Plus não tinha entrada Ethernet, a solução foi usar um dos novos computadores em miniatura Raspberry Pi, adaptadores e alguns drivers lançados pela Apple nos anos 1980.
Voilà, Keacher conseguiu se conectar à 19 Kbps. Uma velocidade extremamente lenta e inviável para o funcionamento dos sistemas atuais, mas o engenheiro conseguiu seu objetivo, que era "apresentar o Mac para a internet e o encontro foi bem sucedido", segundo ele mesmo.
Confira o vídeo fascinante.
Wellington
Entenda o que é o carbono equivalente e para que ele serve

O termo "carbono equivalente" está intimamente relacionado a outras definições, tais como "emissões de gases de efeito estufa" (GEEs) e "créditos de carbono". Para que se entenda melhor a relação entre eles, primeiramente devemos aprender um pouco mais sobre o Protocolo de Quioto.
Protocolo de Quioto
O Protocolo de Quioto (ou Kyoto) é um documento complementar à Convenção Quadro das Nações Unidas sobre a Mudança do Clima. Foi criado em 1997 no Japão e tinha como objetivo estipular limites de emissão de gases de efeito estufa para os países desenvolvidos (chamados Países do Anexo I), principais responsáveis pela mudança climática atual (para ler sobre aquecimento global clique aqui).
Esse documento exigia que os países desenvolvidos participantes reduzissem suas emissões a pelo menos 5% abaixo dos níveis de 1990 no primeiro período de compromisso, que foi de 2008 a 2012 (o segundo período se iniciou em 1º de janeiro de 2013). Para tornar viável o cumprimento dos limites estabelecidos no protocolo, ele ainda adotou a criação de "mecanismos de flexibilização", como o Mecanismo de Desenvolvimento Limpo (MDL, que pode ser adotado por países em desenvolvimento, chamados de Países do não-Anexo I) e o comércio de emissões.
O protocolo possibilitou também que atividades como florestamento e reflorestamento contabilizassem na flexibilização dos cortes de emissão, não entrando nessa contagem os projetos de conservação florestal.
Comércio internacional de créditos de carbono
Entendido este contexto, podemos falar agora do chamado "crédito de carbono", que corresponde a uma tonelada de CO2. De acordo com o MDL, os países do Anexo I poderiam comprar créditos de carbono de países em desenvolvimento que tenham ratificado o protocolo. Já o comércio de emissões permite que essa venda e compra de créditos de carbono seja realizada entre os países do Anexo I, onde um país “A”, que tenha reduzido suas emissões para níveis abaixo de sua meta, poderá vender créditos excedentes para um país “B” que deseje ou precise ampliar seu limite de emissão (lembrando que cada país possui um limite de créditos que poderá comprar).
Foi criado então um mercado de créditos de carbono. Mas como consegui-los? Um crédito de carbono é “ganho” a cada tonelada de CO2 que é absorvida ou que deixa de ser emitida. Cada um dos créditos de carbono poderá ser comercializado internacionalmente, como já foi dito. Reduzidas as emissões, um país pode auferir Certificados de Emissões Reduzidas (CERs), que são fornecidos por organismos da Convenção Quadro das Nações Unidas sobre a Mudança do Clima.
Muito bem, mas e quanto aos demais gases? O Protocolo de Quioto não abrangia apenas o dióxido de carbono, mas sim todos os gases poluentes causadores do efeito estufa, sendo eles o metano (CH4), o óxido nitroso (N2O), o ozônio (O3) e os clorofluorcarbonos (CFCs). Deste modo, para que fossem quantificadas as emissões para a conversão em créditos de carbono, foi necessário criar uma maneira de relacionar os gases de forma que todos fossem representados por uma mesma unidade.
Carbono equivalente
"Equivalente", segundo dicionários, expressa algo que possui o mesmo sentido; igual valor, e que pode ser substituído por possuir o mesmo significado.
Dessa maneira, o termo "carbono equivalente" (também utilizado na área dametalurgia), nada mais é que a representação dos demais gases de efeito estufa (GEEs) em forma de CO2. É fazê-los equivaler ao CO2. Confuso? Calma, não é tão difícil quanto parece.
Para que haja essa conversão dos demais gases em CO2, deve-se conhecer o Potencial de Aquecimento Global (Global Warming Potential - GWP, na sigla em inglês). O GWP dos gases de efeito estufa é relacionado à capacidade de cada um deles de absorver calor na atmosfera (eficiência radiativa) em um determinado tempo (geralmente 100 anos), comparada à mesma capacidade de absorção de calor por parte do CO2. Assim, a fórmula para o cálculo do carbono equivalente é a multiplicação da quantidade de um gás por seu GWP.
O site GHG Protocol fornece tabelas com o GWP relativo a cada gás do efeito estufa.
A aplicação dos cálculos para carbono equivalente se faz útil quando se pretende tratar de gases de efeito estufa de forma generalizada.
Entenda o que é o carbono equivalente e para que ele serve

O termo "carbono equivalente" está intimamente relacionado a outras definições, tais como "emissões de gases de efeito estufa" (GEEs) e "créditos de carbono". Para que se entenda melhor a relação entre eles, primeiramente devemos aprender um pouco mais sobre o Protocolo de Quioto.
Protocolo de Quioto
O Protocolo de Quioto (ou Kyoto) é um documento complementar à Convenção Quadro das Nações Unidas sobre a Mudança do Clima. Foi criado em 1997 no Japão e tinha como objetivo estipular limites de emissão de gases de efeito estufa para os países desenvolvidos (chamados Países do Anexo I), principais responsáveis pela mudança climática atual (para ler sobre aquecimento global clique aqui).
Esse documento exigia que os países desenvolvidos participantes reduzissem suas emissões a pelo menos 5% abaixo dos níveis de 1990 no primeiro período de compromisso, que foi de 2008 a 2012 (o segundo período se iniciou em 1º de janeiro de 2013). Para tornar viável o cumprimento dos limites estabelecidos no protocolo, ele ainda adotou a criação de "mecanismos de flexibilização", como o Mecanismo de Desenvolvimento Limpo (MDL, que pode ser adotado por países em desenvolvimento, chamados de Países do não-Anexo I) e o comércio de emissões.
O protocolo possibilitou também que atividades como florestamento e reflorestamento contabilizassem na flexibilização dos cortes de emissão, não entrando nessa contagem os projetos de conservação florestal.
Comércio internacional de créditos de carbono
Entendido este contexto, podemos falar agora do chamado "crédito de carbono", que corresponde a uma tonelada de CO2. De acordo com o MDL, os países do Anexo I poderiam comprar créditos de carbono de países em desenvolvimento que tenham ratificado o protocolo. Já o comércio de emissões permite que essa venda e compra de créditos de carbono seja realizada entre os países do Anexo I, onde um país “A”, que tenha reduzido suas emissões para níveis abaixo de sua meta, poderá vender créditos excedentes para um país “B” que deseje ou precise ampliar seu limite de emissão (lembrando que cada país possui um limite de créditos que poderá comprar).
Foi criado então um mercado de créditos de carbono. Mas como consegui-los? Um crédito de carbono é “ganho” a cada tonelada de CO2 que é absorvida ou que deixa de ser emitida. Cada um dos créditos de carbono poderá ser comercializado internacionalmente, como já foi dito. Reduzidas as emissões, um país pode auferir Certificados de Emissões Reduzidas (CERs), que são fornecidos por organismos da Convenção Quadro das Nações Unidas sobre a Mudança do Clima.
Muito bem, mas e quanto aos demais gases? O Protocolo de Quioto não abrangia apenas o dióxido de carbono, mas sim todos os gases poluentes causadores do efeito estufa, sendo eles o metano (CH4), o óxido nitroso (N2O), o ozônio (O3) e os clorofluorcarbonos (CFCs). Deste modo, para que fossem quantificadas as emissões para a conversão em créditos de carbono, foi necessário criar uma maneira de relacionar os gases de forma que todos fossem representados por uma mesma unidade.
Carbono equivalente
"Equivalente", segundo dicionários, expressa algo que possui o mesmo sentido; igual valor, e que pode ser substituído por possuir o mesmo significado.
Dessa maneira, o termo "carbono equivalente" (também utilizado na área dametalurgia), nada mais é que a representação dos demais gases de efeito estufa (GEEs) em forma de CO2. É fazê-los equivaler ao CO2. Confuso? Calma, não é tão difícil quanto parece.
Para que haja essa conversão dos demais gases em CO2, deve-se conhecer o Potencial de Aquecimento Global (Global Warming Potential - GWP, na sigla em inglês). O GWP dos gases de efeito estufa é relacionado à capacidade de cada um deles de absorver calor na atmosfera (eficiência radiativa) em um determinado tempo (geralmente 100 anos), comparada à mesma capacidade de absorção de calor por parte do CO2. Assim, a fórmula para o cálculo do carbono equivalente é a multiplicação da quantidade de um gás por seu GWP.
O site GHG Protocol fornece tabelas com o GWP relativo a cada gás do efeito estufa.
A aplicação dos cálculos para carbono equivalente se faz útil quando se pretende tratar de gases de efeito estufa de forma generalizada.
Wellington
Estudo avalia a possibilidade do CO2 interferir no crescimento de árvores tropicais

Alguns modelos estatísticos que representam a dinâmica das vegetações globais já foram anteriormente utilizados para prever quais serão as respostas ambientais dos ambientes florestais às mudanças climáticas. Estes modelos defendem que o aumento da concentração de CO2 na atmosfera fará com que aumente a biomassa das florestas tropicais, ou seja, que o CO2 terá um efeito de fertilização das árvores de clima tropical.
Como?
Com o aumento na concentração de CO2 na atmosfera, fica disponível então mais matéria-prima para ser aproveitada nas reações de fotossíntese. Dessa forma, esse aumento aceleraria as taxas fotossintéticas das plantas. Além disso, a fertilização por CO2 aumentaria a eficiência do uso da água, fazendo com que as plantas aproveitassem melhor esse recurso, havendo menor perda hídrica através da transpiração.
Apesar das previsões, não há evidências concretas de que este processo realmente influenciaria no crescimento das árvores em florestas tropicais.
A revista Nature publicou um estudo que investigou se há ou não relação entre o aumento do CO2 atmosférico e o crescimento das árvores através da medição dos anéis de seus troncos. O estudo investigou também se há relação entre a elevação da concentração de CO2 com mudanças na taxa de aproveitamento da água pelas árvores.
Um aumento na eficiência do uso da água seria interessante principalmente para árvores que estão sujeitas a períodos de escassez hídrica ou secas sazonais, de modo que uma menor perda de água reduziria o estresse hídrico sofrido por elas e estenderia seus períodos de crescimento.
O primeiro passo do estudo foi verificar se houve aumento na absorção de carbono pelas árvores que possa ser relacionado com o aumento da concentração de CO2 atmosférico, e se isso alterou as taxas de fotossíntese e aproveitamento da água. O outro passo foi verificar se houve crescimento dos anéis e da largura dos troncos nesse período de tempo, para que se possa estabelecer uma relação entre o aumento do CO2 e o aumento da biomassa em florestas tropicais.
O estudo
Foram selecionadas mais de mil árvores de 12 espécies diferentes, e, para uma maior representatividade do ambiente tropical, elas se encontravam distribuídas em três localizações diferentes nos trópicos. O estudo tinha como objetivo analisar a relação entre o aumento do CO2 e alterações nas taxas de crescimento das árvores ao longo dos últimos 150 anos, e para obter os dados de longo prazo, foram analisados os isótopos de carbono (variantes do elemento carbono) presentes na celulose dos troncos. A partir desses isótopos pôde-se estimar o carbono intracelular presente nas folhas e a eficiência do uso da água em anos anteriores.
A partir disso, foi identificado um aumento significativo de carbono intracelular presente nas folhas das árvores dos três locais ao longo do últimos 150 anos. Porém, esse aumento foi menor que as do CO2 atmosférico. Ou seja, o aumento identificado ocorreu em uma escala de tempo bem menor que a da elevação das concentrações de dióxido de carbono na atmosfera, que começou a ocorrer no início da Revolução Industrial, por volta de 1850.
De qualquer maneira, identificou-se que, simultaneamente, houve um aumento na eficiência do uso da água. Estudos anteriores com enriquecimento de CO2 no ar identificaram essa melhora no aproveitamento da água em algumas espécies arbóreas tropicais, bem como em árvores de clima temperado, e ao que tudo indica esse efeito ocorreu em escala pan-tropical.
O aumento na eficiência do uso da água ocorrido a longo prazo indica duas prováveis explicações: a primeira seria o aumento da fotossíntese, podendo assim ser relacionado com a elevação da concentração de CO2. A segunda é a diminuição da transpiração.
Resultados
O estudo concluiu que o aumento na concentração de CO2 atmosférico nos últimos 150 anos resultou em elevações nos níveis de carbono presente nas folhas, e também em melhoras no aproveitamento da água para os três locais de estudo. Porém, não foram identificado aumentos detectáveis no diâmetro dos troncos para o período analisado.
Apesar disso, foi comprovada uma baixa capacidade de detectar mudanças no crescimento dos troncos pela metodologia utilizada no estudo, sendo essa uma das possíveis razões para não terem sido identificados crescimentos das árvores.
Justificativas
Estas divergências entre o estudo realizado e os modelos estatísticos no que diz respeito ao crescimento das árvores podem ser conferidas a razões técnicas da metodologia utilizada por cada pesquisador, podendo variar no período analisado, nas unidades de análise, e tamanhos dos lotes de onde as árvores foram amostradas, por exemplo. Os resultados obtidos a partir do estudo apresentado pelaNature indicam que, ao contrário da suposição comum, o aumento da concentração de CO2 atmosférico não estimulou o crescimento das árvores das espécies estudadas em uma escala de tempo centenária.
Outro possível motivo para não ter sido verificado aumento no crescimento das árvores é a existência de estressores externos, como aumentos ou diminuições da temperatura média diária, como foi identificado no período estudado, ou a escassez de outros recursos fundamentais ao crescimento além do CO2 ou da água, como a limitação de nutrientes ou redução dos níveis de luz.
Além disso, assimilações adicionais geradas pelo aumento da fotossíntese podem ter sido aplicadas no desenvolvimento de frutos e biomassa radicular, não sendo identificada pela medição dos anéis das árvores ou dos diâmetros dos troncos.
Já as alterações nas taxas de aproveitamento da água podem ser explicadas por uma redução na condução de água pelos estômatos, que reduziu as taxas de transpiração. Uma preocupação a ser levada em consideração é que uma redução na transpiração das plantas levaria a baixas umidades do ar e elevação das temperaturas (leia mais sobre aquecimento global clicando aqui). Não é possível afirmar que isso ocasionaria alterações no ciclo hidrológico, porque o desmatamento, ao mesmo tempo que aumenta as concentrações de CO2 na atmosfera (assim ocorrendo de forma simultânea às alterações no aproveitamento da água pelas plantas), também tem grande parcela de responsabilidade na interferência no ciclo.
Considerando o importante papel das florestas tropicais no ciclo de carbono global, é importante saber quais serão suas respostas às mudanças climáticas. Como foi dito, há previsões de que elas sofrerão aumento em sua biomassa como resultado da fertilização por CO2. Porém, caso não hajam estes efeitos (como foi identificado no estudo apresentado pela revista), é possível afirmar que os modelos atuais superestimam a capacidade das florestas tropicais de agirem como sumidouros de carbono, indicando que elas absorverão mais carbono atmosférico do que realmente o farão, tendo na realidade um papel menor sobre a redução dos efeitos do aquecimento global com relação ao previsto pelos modelos atuais.
Estudo avalia a possibilidade do CO2 interferir no crescimento de árvores tropicais

Alguns modelos estatísticos que representam a dinâmica das vegetações globais já foram anteriormente utilizados para prever quais serão as respostas ambientais dos ambientes florestais às mudanças climáticas. Estes modelos defendem que o aumento da concentração de CO2 na atmosfera fará com que aumente a biomassa das florestas tropicais, ou seja, que o CO2 terá um efeito de fertilização das árvores de clima tropical.
Como?
Com o aumento na concentração de CO2 na atmosfera, fica disponível então mais matéria-prima para ser aproveitada nas reações de fotossíntese. Dessa forma, esse aumento aceleraria as taxas fotossintéticas das plantas. Além disso, a fertilização por CO2 aumentaria a eficiência do uso da água, fazendo com que as plantas aproveitassem melhor esse recurso, havendo menor perda hídrica através da transpiração.
Apesar das previsões, não há evidências concretas de que este processo realmente influenciaria no crescimento das árvores em florestas tropicais.
A revista Nature publicou um estudo que investigou se há ou não relação entre o aumento do CO2 atmosférico e o crescimento das árvores através da medição dos anéis de seus troncos. O estudo investigou também se há relação entre a elevação da concentração de CO2 com mudanças na taxa de aproveitamento da água pelas árvores.
Um aumento na eficiência do uso da água seria interessante principalmente para árvores que estão sujeitas a períodos de escassez hídrica ou secas sazonais, de modo que uma menor perda de água reduziria o estresse hídrico sofrido por elas e estenderia seus períodos de crescimento.
O primeiro passo do estudo foi verificar se houve aumento na absorção de carbono pelas árvores que possa ser relacionado com o aumento da concentração de CO2 atmosférico, e se isso alterou as taxas de fotossíntese e aproveitamento da água. O outro passo foi verificar se houve crescimento dos anéis e da largura dos troncos nesse período de tempo, para que se possa estabelecer uma relação entre o aumento do CO2 e o aumento da biomassa em florestas tropicais.
O estudo
Foram selecionadas mais de mil árvores de 12 espécies diferentes, e, para uma maior representatividade do ambiente tropical, elas se encontravam distribuídas em três localizações diferentes nos trópicos. O estudo tinha como objetivo analisar a relação entre o aumento do CO2 e alterações nas taxas de crescimento das árvores ao longo dos últimos 150 anos, e para obter os dados de longo prazo, foram analisados os isótopos de carbono (variantes do elemento carbono) presentes na celulose dos troncos. A partir desses isótopos pôde-se estimar o carbono intracelular presente nas folhas e a eficiência do uso da água em anos anteriores.
A partir disso, foi identificado um aumento significativo de carbono intracelular presente nas folhas das árvores dos três locais ao longo do últimos 150 anos. Porém, esse aumento foi menor que as do CO2 atmosférico. Ou seja, o aumento identificado ocorreu em uma escala de tempo bem menor que a da elevação das concentrações de dióxido de carbono na atmosfera, que começou a ocorrer no início da Revolução Industrial, por volta de 1850.
De qualquer maneira, identificou-se que, simultaneamente, houve um aumento na eficiência do uso da água. Estudos anteriores com enriquecimento de CO2 no ar identificaram essa melhora no aproveitamento da água em algumas espécies arbóreas tropicais, bem como em árvores de clima temperado, e ao que tudo indica esse efeito ocorreu em escala pan-tropical.
O aumento na eficiência do uso da água ocorrido a longo prazo indica duas prováveis explicações: a primeira seria o aumento da fotossíntese, podendo assim ser relacionado com a elevação da concentração de CO2. A segunda é a diminuição da transpiração.
Resultados
O estudo concluiu que o aumento na concentração de CO2 atmosférico nos últimos 150 anos resultou em elevações nos níveis de carbono presente nas folhas, e também em melhoras no aproveitamento da água para os três locais de estudo. Porém, não foram identificado aumentos detectáveis no diâmetro dos troncos para o período analisado.
Apesar disso, foi comprovada uma baixa capacidade de detectar mudanças no crescimento dos troncos pela metodologia utilizada no estudo, sendo essa uma das possíveis razões para não terem sido identificados crescimentos das árvores.
Justificativas
Estas divergências entre o estudo realizado e os modelos estatísticos no que diz respeito ao crescimento das árvores podem ser conferidas a razões técnicas da metodologia utilizada por cada pesquisador, podendo variar no período analisado, nas unidades de análise, e tamanhos dos lotes de onde as árvores foram amostradas, por exemplo. Os resultados obtidos a partir do estudo apresentado pelaNature indicam que, ao contrário da suposição comum, o aumento da concentração de CO2 atmosférico não estimulou o crescimento das árvores das espécies estudadas em uma escala de tempo centenária.
Outro possível motivo para não ter sido verificado aumento no crescimento das árvores é a existência de estressores externos, como aumentos ou diminuições da temperatura média diária, como foi identificado no período estudado, ou a escassez de outros recursos fundamentais ao crescimento além do CO2 ou da água, como a limitação de nutrientes ou redução dos níveis de luz.
Além disso, assimilações adicionais geradas pelo aumento da fotossíntese podem ter sido aplicadas no desenvolvimento de frutos e biomassa radicular, não sendo identificada pela medição dos anéis das árvores ou dos diâmetros dos troncos.
Já as alterações nas taxas de aproveitamento da água podem ser explicadas por uma redução na condução de água pelos estômatos, que reduziu as taxas de transpiração. Uma preocupação a ser levada em consideração é que uma redução na transpiração das plantas levaria a baixas umidades do ar e elevação das temperaturas (leia mais sobre aquecimento global clicando aqui). Não é possível afirmar que isso ocasionaria alterações no ciclo hidrológico, porque o desmatamento, ao mesmo tempo que aumenta as concentrações de CO2 na atmosfera (assim ocorrendo de forma simultânea às alterações no aproveitamento da água pelas plantas), também tem grande parcela de responsabilidade na interferência no ciclo.
Considerando o importante papel das florestas tropicais no ciclo de carbono global, é importante saber quais serão suas respostas às mudanças climáticas. Como foi dito, há previsões de que elas sofrerão aumento em sua biomassa como resultado da fertilização por CO2. Porém, caso não hajam estes efeitos (como foi identificado no estudo apresentado pela revista), é possível afirmar que os modelos atuais superestimam a capacidade das florestas tropicais de agirem como sumidouros de carbono, indicando que elas absorverão mais carbono atmosférico do que realmente o farão, tendo na realidade um papel menor sobre a redução dos efeitos do aquecimento global com relação ao previsto pelos modelos atuais.
Wellington
É importante tomar o café da manhã, almoçar e jantar em horários regulares”. “Você não deve ficar comendo entre uma refeição e outra, pois isso tira o apetite”. “Não se deve pular nenhuma refeição, para não prejudicar a saúde”.
Todo mundo já ouviu frases parecidas com essas pelo menos uma vez na vida, e a maioria das pessoas tenta seguir esses conceitos à risca.
Mas segundo diversos especialistas, deveríamos estar fazendo jejum ou comendo mais vezes ao dia. Confuso, não? Calma que já explicamos.
A culpa é dos europeus
Historicamente, o hábito de se alimentar três vezes ao dia surgiu na Europa Medieval. Os agricultores acordavam cedo, tomavam mingau frio e iam cultivar os campos. Quando o sol estava no zênite, era hora de descansar, fazer uma refeição mais substancial para recuperar as forças e se preparar para o resto do dia de trabalho. Ao voltarem para casa, tinham mais uma refeição como a da manhã e então era hora de irem para cama para começar tudo de novo na manhã seguinte.
Ao chegar à América durante as Grandes Navegações, os colonizadores europeus trouxeram também esses hábitos alimentares com eles. Ao estabelecerem contato com os nativos, perceberam que a frequência com que estes comiam variava conforme as estações do ano. No inverno, por exemplo, era comum que membros de tribos indígenas na América do Norte jejuassem devido à escassez de alimentos.
Os “descobridores” tomaram isso como mais uma evidência de que os índios não eram civilizados, afinal quem em sã consciência passaria fome voluntariamente? Uma pessoa deveria ter horários para comer ou não seria muito diferente de um animal. Europeus achavam os hábitos de alimentação dos nativos tão intrigantes que até paravam para assisti-los comer como uma forma de entretenimento.
Da revolução industrial ao cereal matinal

Quando os centros urbanos começaram a se desenvolver e o homem começou a deixar o campo, a fonte de renda de muitos era trabalhar em fábricas no centro da cidade enquanto moravam no subúrbio. Isso quer dizer que não era mais possível retornar para casa para almoçar, então era necessário incrementar mais o café da manhã, comer algo simples durante a tarde e tornar o jantar a refeição mais pesada do dia.
A quantidade de comida, no entanto, permaneceu idêntica à da época em que o homem vivia do cultivo. A vida mais sedentária da cidade não fez com que as pessoas diminuíssem o tamanho das refeições em relação ao que se comia nos tempos da laboriosa vida no campo. Médicos, preocupados com o aumento exponencial dos casos de indigestão, passaram a recomendar que as pessoas pegassem mais leve no café da manhã.
Aí é que surge a oportunidade perfeita para os irmãos Will Keith e John Harvey Kellogg. Em 1897, eles apresentaram ao mundo os seus cereais matinais como uma alternativa às pesadas refeições consumidas pela manhã. Apesar de não fazerem tanto sucesso por aqui, nos EUA os cereais são uma indústria fortíssima.
A refeição mais importante
Aproveitando a popularização da ideia de que as pessoas deveriam consumir coisas mais saudáveis pela manhã, associações produtoras de frutas começaram a promover a ideia de que não mais o almoço, mas sim o café da manhã era a refeição mais importante do dia e, por isso, deveria ser também a mais saudável.
Com isso, explodiram as vendas de alimentos naturais, principalmente quando os cientistas começaram a descobrir a importância das vitaminas para nossa saúde. Quem aí nunca assistiu a um filme americano em que aparece alguém tomando suco de laranja ou passando geleia de frutas em uma torrada antes de ir para o colégio ou para o trabalho?
Até aqui, tudo muito bonito, tudo muito legal. Mas, afinal, é realmente essencial que façamos três refeições sempre? Para muitos pesquisadores do assunto, a resposta é não. Na verdade, fazer jejum pode ser mais benéfico para a saúde do que tomar café da manhã, almoçar e jantar todos os dias, desde que isso seja feito corretamente.

O que a ciência diz
Um estudo realizado no ano passado pela Universidade de Bath, no Reino Unido, comprovou que pessoas que pulam o café têm o mesmo nível médio de queima diária de calorias que alguém que faz seu desjejum regularmente.
Sim, quem come pela manhã ingere mais calorias, mas o metabolismo faz um esforço a mais para processar esse ganho calórico extra e depois se estabiliza mais ou menos no mesmo ritmo de um indivíduo que não come nada ao acordar.
Uma pesquisa similar realizada na Universidade do Alabama, EUA, mostrou que pessoas de dieta que tomam café da manhã perdem peso na mesma proporção de quem não toma. Ou seja, essa refeição não causa praticamente impacto nenhum no nosso organismo, metabolicamente falando.
Dois, três, cinco ou seis?
Na verdade, o problema não está somente na refeição matinal, mas em todas elas. Um estudo publicado em 2010 no Jornal Britânico de Nutrição comparou dois grupos: um que fazia três refeições diárias e outro que fazia seis, sendo que o total calórico nos dois lados era o mesmo. Os pesquisadores não encontraram nenhuma diferença hormonal ou de ganho de peso entre os participantes.
Em 2014, cientistas da Universidade de Warwick, na Inglaterra, também não encontraram nada que diferenciasse o metabolismo de um grupo de mulheres que se alimentava duas vezes ao dia de outro que comia cinco vezes diariamente. Isso significa dizer que a quantidade de refeições não é tão importante quanto a qualidade.
Algo que talvez possa realmente causar algum tipo de alteração na forma como o metabolismo age é a prática considerada incivilizada pelos colonizadores europeus: o jejum periódico.
Que tal fazer jejum para viver mais?

O neurocientista Mark Mattson, do National Institute on Aging (Instituto Nacional sobre o Envelhecimento, em tradução livre), nos Estados Unidos, observou ao longo dos últimos 20 anos diversos experimentos com ratos de laboratório que mostraram que os espécimes que pulam refeições são mais esguios e vivem por mais tempo do que os que se alimentavam com frequência, além de possuírem células cerebrais mais robustas.
Segundo Mattson, ele mesmo um adepto dos jejuns intermitentes, a privação de calorias faz com que as células aumentem suas defesas, como se elas se tornassem mais atentas. Isso faz com que fiquem mais resistentes a outros agentes, como o próprio envelhecimento celular, toxinas ambientais e ameaças semelhantes. Uma pesquisa relacionada mostrou que jejuar pode ajudar até mesmo a prevenir doenças cardíacas.
Em 2012, outro estudo realizado com ratos observou que aqueles que consumiam todas as calorias diárias em um espaço de oito horas tinham menor propensão a desenvolver doenças relacionadas ao metabolismo, como diabetes. Um acompanhamento feito no ano passado confirmou o resultado.

Comer ou não comer? Eis a questão
Afinal, o certo é comer menos, comer mais, fazer jejum ou não? Na verdade, é você quem deve descobrir, pois o metabolismo de cada pessoa funciona de uma forma. Alguns têm uma vida mais saudável comendo três vezes ao dia, enquanto outros se sentem melhor se comerem em pequenas porções diversas vezes, e há até quem prefira pular refeições. Vai de cada um.
O segredo talvez seja parar de se alimentar quando o relógio disser que é a hora e, em vez disso, comer quando estiver com fome, quando o seu corpo avisar que precisa ser reabastecido. As convenções sociais do horário de café da manhã, almoço e jantar nos foram impostas, mas ninguém nunca ensinou isso ao nosso organismo, então por que lutar contra quem quer apenas nos manter vivos e saudáveis?
É importante tomar o café da manhã, almoçar e jantar em horários regulares”. “Você não deve ficar comendo entre uma refeição e outra, pois isso tira o apetite”. “Não se deve pular nenhuma refeição, para não prejudicar a saúde”.
Todo mundo já ouviu frases parecidas com essas pelo menos uma vez na vida, e a maioria das pessoas tenta seguir esses conceitos à risca.
Mas segundo diversos especialistas, deveríamos estar fazendo jejum ou comendo mais vezes ao dia. Confuso, não? Calma que já explicamos.
A culpa é dos europeus
Historicamente, o hábito de se alimentar três vezes ao dia surgiu na Europa Medieval. Os agricultores acordavam cedo, tomavam mingau frio e iam cultivar os campos. Quando o sol estava no zênite, era hora de descansar, fazer uma refeição mais substancial para recuperar as forças e se preparar para o resto do dia de trabalho. Ao voltarem para casa, tinham mais uma refeição como a da manhã e então era hora de irem para cama para começar tudo de novo na manhã seguinte.
Ao chegar à América durante as Grandes Navegações, os colonizadores europeus trouxeram também esses hábitos alimentares com eles. Ao estabelecerem contato com os nativos, perceberam que a frequência com que estes comiam variava conforme as estações do ano. No inverno, por exemplo, era comum que membros de tribos indígenas na América do Norte jejuassem devido à escassez de alimentos.
Os “descobridores” tomaram isso como mais uma evidência de que os índios não eram civilizados, afinal quem em sã consciência passaria fome voluntariamente? Uma pessoa deveria ter horários para comer ou não seria muito diferente de um animal. Europeus achavam os hábitos de alimentação dos nativos tão intrigantes que até paravam para assisti-los comer como uma forma de entretenimento.
Da revolução industrial ao cereal matinal

Quando os centros urbanos começaram a se desenvolver e o homem começou a deixar o campo, a fonte de renda de muitos era trabalhar em fábricas no centro da cidade enquanto moravam no subúrbio. Isso quer dizer que não era mais possível retornar para casa para almoçar, então era necessário incrementar mais o café da manhã, comer algo simples durante a tarde e tornar o jantar a refeição mais pesada do dia.
A quantidade de comida, no entanto, permaneceu idêntica à da época em que o homem vivia do cultivo. A vida mais sedentária da cidade não fez com que as pessoas diminuíssem o tamanho das refeições em relação ao que se comia nos tempos da laboriosa vida no campo. Médicos, preocupados com o aumento exponencial dos casos de indigestão, passaram a recomendar que as pessoas pegassem mais leve no café da manhã.
Aí é que surge a oportunidade perfeita para os irmãos Will Keith e John Harvey Kellogg. Em 1897, eles apresentaram ao mundo os seus cereais matinais como uma alternativa às pesadas refeições consumidas pela manhã. Apesar de não fazerem tanto sucesso por aqui, nos EUA os cereais são uma indústria fortíssima.
A refeição mais importante
Aproveitando a popularização da ideia de que as pessoas deveriam consumir coisas mais saudáveis pela manhã, associações produtoras de frutas começaram a promover a ideia de que não mais o almoço, mas sim o café da manhã era a refeição mais importante do dia e, por isso, deveria ser também a mais saudável.
Com isso, explodiram as vendas de alimentos naturais, principalmente quando os cientistas começaram a descobrir a importância das vitaminas para nossa saúde. Quem aí nunca assistiu a um filme americano em que aparece alguém tomando suco de laranja ou passando geleia de frutas em uma torrada antes de ir para o colégio ou para o trabalho?
Até aqui, tudo muito bonito, tudo muito legal. Mas, afinal, é realmente essencial que façamos três refeições sempre? Para muitos pesquisadores do assunto, a resposta é não. Na verdade, fazer jejum pode ser mais benéfico para a saúde do que tomar café da manhã, almoçar e jantar todos os dias, desde que isso seja feito corretamente.

O que a ciência diz
Um estudo realizado no ano passado pela Universidade de Bath, no Reino Unido, comprovou que pessoas que pulam o café têm o mesmo nível médio de queima diária de calorias que alguém que faz seu desjejum regularmente.
Sim, quem come pela manhã ingere mais calorias, mas o metabolismo faz um esforço a mais para processar esse ganho calórico extra e depois se estabiliza mais ou menos no mesmo ritmo de um indivíduo que não come nada ao acordar.
Uma pesquisa similar realizada na Universidade do Alabama, EUA, mostrou que pessoas de dieta que tomam café da manhã perdem peso na mesma proporção de quem não toma. Ou seja, essa refeição não causa praticamente impacto nenhum no nosso organismo, metabolicamente falando.
Dois, três, cinco ou seis?
Na verdade, o problema não está somente na refeição matinal, mas em todas elas. Um estudo publicado em 2010 no Jornal Britânico de Nutrição comparou dois grupos: um que fazia três refeições diárias e outro que fazia seis, sendo que o total calórico nos dois lados era o mesmo. Os pesquisadores não encontraram nenhuma diferença hormonal ou de ganho de peso entre os participantes.
Em 2014, cientistas da Universidade de Warwick, na Inglaterra, também não encontraram nada que diferenciasse o metabolismo de um grupo de mulheres que se alimentava duas vezes ao dia de outro que comia cinco vezes diariamente. Isso significa dizer que a quantidade de refeições não é tão importante quanto a qualidade.
Algo que talvez possa realmente causar algum tipo de alteração na forma como o metabolismo age é a prática considerada incivilizada pelos colonizadores europeus: o jejum periódico.
Que tal fazer jejum para viver mais?

O neurocientista Mark Mattson, do National Institute on Aging (Instituto Nacional sobre o Envelhecimento, em tradução livre), nos Estados Unidos, observou ao longo dos últimos 20 anos diversos experimentos com ratos de laboratório que mostraram que os espécimes que pulam refeições são mais esguios e vivem por mais tempo do que os que se alimentavam com frequência, além de possuírem células cerebrais mais robustas.
Segundo Mattson, ele mesmo um adepto dos jejuns intermitentes, a privação de calorias faz com que as células aumentem suas defesas, como se elas se tornassem mais atentas. Isso faz com que fiquem mais resistentes a outros agentes, como o próprio envelhecimento celular, toxinas ambientais e ameaças semelhantes. Uma pesquisa relacionada mostrou que jejuar pode ajudar até mesmo a prevenir doenças cardíacas.
Em 2012, outro estudo realizado com ratos observou que aqueles que consumiam todas as calorias diárias em um espaço de oito horas tinham menor propensão a desenvolver doenças relacionadas ao metabolismo, como diabetes. Um acompanhamento feito no ano passado confirmou o resultado.

Comer ou não comer? Eis a questão
Afinal, o certo é comer menos, comer mais, fazer jejum ou não? Na verdade, é você quem deve descobrir, pois o metabolismo de cada pessoa funciona de uma forma. Alguns têm uma vida mais saudável comendo três vezes ao dia, enquanto outros se sentem melhor se comerem em pequenas porções diversas vezes, e há até quem prefira pular refeições. Vai de cada um.
O segredo talvez seja parar de se alimentar quando o relógio disser que é a hora e, em vez disso, comer quando estiver com fome, quando o seu corpo avisar que precisa ser reabastecido. As convenções sociais do horário de café da manhã, almoço e jantar nos foram impostas, mas ninguém nunca ensinou isso ao nosso organismo, então por que lutar contra quem quer apenas nos manter vivos e saudáveis?
Wellington
Com a crescente demanda por serviços de Internet, a tecnologia das conexões pelo sistema de discagem mostrava sinais de desgaste, apresentando limitações graves ao desenvolvimento do mundo online. Velocidade extremamente limitada, quedas constantes de conexão e a impossibilidade de se utilizar o telefone para fazer ligações são algumas das piores lembranças desses tempos. Eliminar esses problemas, sem precisar criar novas redes de telecomunicação é a grande vantagem do xDSL, uma das tecnologias de banda larga mais utilizadas atualmente.
O significado do nome
O x do xDSL é somente um nome genérico, para definir uma família de protocolos que trabalham com o sistema Digital Subscriber Line. Portanto, não estranhe se você tiver em sua casa uma conexão ADSL e ver por aí anunciadas conexões com nomes como HDSL, SDSL e VDSL. Todas são baseadas na mesma tecnologia, o que vai mudar é a forma como os dados são transmitidos, de forma simétrica ou assimétrica.
O x do xDSL é somente um nome genérico, para definir uma família de protocolos que trabalham com o sistema Digital Subscriber Line. Portanto, não estranhe se você tiver em sua casa uma conexão ADSL e ver por aí anunciadas conexões com nomes como HDSL, SDSL e VDSL. Todas são baseadas na mesma tecnologia, o que vai mudar é a forma como os dados são transmitidos, de forma simétrica ou assimétrica.
Como funciona

A grande vantagem do xDSL em relação às demais tecnologias de conexão por banda larga é aproveitar dos mesmos fios de cobre trançados utilizados por linhas telefônicas digitais comuns. Dessa forma, o sistema abrange uma imensa área de cobertura e dispensa o processo de passagem de novos fios pela parede.
Durante uma ligação comum, a conexão entre o assinante e a central telefônica utiliza frequências que variam entre 300 e 3400 Hz para a transmissão dos sinais de voz. A tecnologia das conexões discadas funciona utilizando estas mesmas frequências, o que explica a impossibilidade de fazer e receber ligações enquanto se utiliza a Internet.
As técnicas digitais de processamento de sinais utilizadas pela tecnologia xDSL permitem a utilização de frequências entre 4000 Hz até 22000 Hz, que evitam o surgimento de interferências com a faixa utilizada para a transmissão de voz. Para fazer essa divisão de frequências, é necessária somente a instalação de um filtro de linha, responsável por separar os sinais que vão para o telefone e aqueles destinados ao computador.
Qual a diferença entre o xDSL e conexões a cabo?

A maior diferença entre os dois tipos de conexão está no limite de velocidade alcançada e no cabeamento necessário para utilizar cada uma. Enquanto as conexões baseadas em xDSL possuem velocidades que variam de 128 kilobits por segundo (kbps) até 24 Mbps, dependendo da tecnologia utilizada, as conexões por cabo variam de 70 kbps até 150 Mbps, abrangendo mais velocidades que a concorrente, através do uso da banda não utilizada pela TV a cabo.
Enquanto na velocidade a tecnologia xDSL leva desvantagem, em matéria de disponibilidade de rede ainda abrange muito mais áreas. Praticamente toda residência possui uma rede telefônica digital instalada e está apta a utilizar desta tecnologia, pois somente algumas poucas cidades ainda trabalham com o sistema analógico. Já as conexões a cabo ainda estão limitadas a áreas muito específicas, normalmente localizadas em grandes centros urbanos. Além disso, sua instalação exige a passagem de novos cabos, processo que pode ser dificultado pela arquitetura do imóvel utilizado.
Com a crescente demanda por serviços de Internet, a tecnologia das conexões pelo sistema de discagem mostrava sinais de desgaste, apresentando limitações graves ao desenvolvimento do mundo online. Velocidade extremamente limitada, quedas constantes de conexão e a impossibilidade de se utilizar o telefone para fazer ligações são algumas das piores lembranças desses tempos. Eliminar esses problemas, sem precisar criar novas redes de telecomunicação é a grande vantagem do xDSL, uma das tecnologias de banda larga mais utilizadas atualmente.
O significado do nome
O x do xDSL é somente um nome genérico, para definir uma família de protocolos que trabalham com o sistema Digital Subscriber Line. Portanto, não estranhe se você tiver em sua casa uma conexão ADSL e ver por aí anunciadas conexões com nomes como HDSL, SDSL e VDSL. Todas são baseadas na mesma tecnologia, o que vai mudar é a forma como os dados são transmitidos, de forma simétrica ou assimétrica.
O x do xDSL é somente um nome genérico, para definir uma família de protocolos que trabalham com o sistema Digital Subscriber Line. Portanto, não estranhe se você tiver em sua casa uma conexão ADSL e ver por aí anunciadas conexões com nomes como HDSL, SDSL e VDSL. Todas são baseadas na mesma tecnologia, o que vai mudar é a forma como os dados são transmitidos, de forma simétrica ou assimétrica.
Como funciona

A grande vantagem do xDSL em relação às demais tecnologias de conexão por banda larga é aproveitar dos mesmos fios de cobre trançados utilizados por linhas telefônicas digitais comuns. Dessa forma, o sistema abrange uma imensa área de cobertura e dispensa o processo de passagem de novos fios pela parede.
Durante uma ligação comum, a conexão entre o assinante e a central telefônica utiliza frequências que variam entre 300 e 3400 Hz para a transmissão dos sinais de voz. A tecnologia das conexões discadas funciona utilizando estas mesmas frequências, o que explica a impossibilidade de fazer e receber ligações enquanto se utiliza a Internet.
As técnicas digitais de processamento de sinais utilizadas pela tecnologia xDSL permitem a utilização de frequências entre 4000 Hz até 22000 Hz, que evitam o surgimento de interferências com a faixa utilizada para a transmissão de voz. Para fazer essa divisão de frequências, é necessária somente a instalação de um filtro de linha, responsável por separar os sinais que vão para o telefone e aqueles destinados ao computador.
Qual a diferença entre o xDSL e conexões a cabo?

A maior diferença entre os dois tipos de conexão está no limite de velocidade alcançada e no cabeamento necessário para utilizar cada uma. Enquanto as conexões baseadas em xDSL possuem velocidades que variam de 128 kilobits por segundo (kbps) até 24 Mbps, dependendo da tecnologia utilizada, as conexões por cabo variam de 70 kbps até 150 Mbps, abrangendo mais velocidades que a concorrente, através do uso da banda não utilizada pela TV a cabo.
Enquanto na velocidade a tecnologia xDSL leva desvantagem, em matéria de disponibilidade de rede ainda abrange muito mais áreas. Praticamente toda residência possui uma rede telefônica digital instalada e está apta a utilizar desta tecnologia, pois somente algumas poucas cidades ainda trabalham com o sistema analógico. Já as conexões a cabo ainda estão limitadas a áreas muito específicas, normalmente localizadas em grandes centros urbanos. Além disso, sua instalação exige a passagem de novos cabos, processo que pode ser dificultado pela arquitetura do imóvel utilizado.
Wellington

Seagate Wireless
(Foto: Divulgação)
A Seagate lança no mercado brasileiro uma série de soluções de armazenamento e compartilhamento de dados que foram reveladas na CES, em janeiro de 2015. Os novos produtos são o HD externo Seagate Seven, o Seagate Wireless, dispositivo de armazenamento sem fio, e o Seagate Personal Cloud, que, além de armazenar os arquivos de computadores conectados a ele, também os torna acessíveis remotamente.
O Seagate Seven é um HD portátil com suporte à interface USB3.0. Ele deriva seu nome do fato de ter apenas sete milímetros de espessura, o que o torna o HD externo mais fino do mundo. Ele possui 500 GB de capacidade de armazenamento e chega ao Brasil custando R$ 649.
O Seagate Wireless é uma espécie de HD externo sem fio que pode ser compartilhado por diversos dispositivos em uma rede doméstica, por exemplo. Segundo a própria Seagate, o aparelho foi criado para ajudar a economizar o espaço de armazenamento interno de dispositivos móveis e é compatível como Windows, iOS, Android e Kindle. Filmes e músicas armazenados nele podem ser transmitidos ao mesmo tempo para até três aparelhos conectados a ele.
Como o Seagate Wireless possui a tecnologia WiFi Direct, dispositivos que queiram acessar seu conteúdo não precisam estar conectados a uma rede. Por esse motivo, ele também pode funcionar como um mini-roteador. Além disso, possui também uma bateria que, segundo a empresa, oferece seis horas de serviço. O dispositivo tem 500GB de capacidade e está disponível em cinco cores, por R$ 849.
Como o Seagate Wireless possui a tecnologia WiFi Direct, dispositivos que queiram acessar seu conteúdo não precisam estar conectados a uma rede. Por esse motivo, ele também pode funcionar como um mini-roteador. Além disso, possui também uma bateria que, segundo a empresa, oferece seis horas de serviço. O dispositivo tem 500GB de capacidade e está disponível em cinco cores, por R$ 849.
O Seagate Personal Cloud, como o próprio nome sugere, cria uma espécie de “nuvem pessoal” para a rede à qual ele é associado. Conectado a um roteador, ele automaticamente armazena suas fotos, vídeos, músicas e arquivos, as quais ele recebe por meio de rede sem fio. Computadores em sistemas operacionais da Microsoft ou da Apple, celulares e tablets Android e iOS e até mesmo televisões com conexão WiFi podem acessar os dados armazenados nele por meio de um aplicativo próprio da Seagate. Além disso, ele também pode ser acessado remotamente enquanto ele estiver conectado à internet. Ele está disponível no Brasil com 3TB de capacidade, e custa R$ 1.299.

Seagate Wireless
(Foto: Divulgação)
A Seagate lança no mercado brasileiro uma série de soluções de armazenamento e compartilhamento de dados que foram reveladas na CES, em janeiro de 2015. Os novos produtos são o HD externo Seagate Seven, o Seagate Wireless, dispositivo de armazenamento sem fio, e o Seagate Personal Cloud, que, além de armazenar os arquivos de computadores conectados a ele, também os torna acessíveis remotamente.
O Seagate Seven é um HD portátil com suporte à interface USB3.0. Ele deriva seu nome do fato de ter apenas sete milímetros de espessura, o que o torna o HD externo mais fino do mundo. Ele possui 500 GB de capacidade de armazenamento e chega ao Brasil custando R$ 649.
O Seagate Wireless é uma espécie de HD externo sem fio que pode ser compartilhado por diversos dispositivos em uma rede doméstica, por exemplo. Segundo a própria Seagate, o aparelho foi criado para ajudar a economizar o espaço de armazenamento interno de dispositivos móveis e é compatível como Windows, iOS, Android e Kindle. Filmes e músicas armazenados nele podem ser transmitidos ao mesmo tempo para até três aparelhos conectados a ele.
Como o Seagate Wireless possui a tecnologia WiFi Direct, dispositivos que queiram acessar seu conteúdo não precisam estar conectados a uma rede. Por esse motivo, ele também pode funcionar como um mini-roteador. Além disso, possui também uma bateria que, segundo a empresa, oferece seis horas de serviço. O dispositivo tem 500GB de capacidade e está disponível em cinco cores, por R$ 849.
Como o Seagate Wireless possui a tecnologia WiFi Direct, dispositivos que queiram acessar seu conteúdo não precisam estar conectados a uma rede. Por esse motivo, ele também pode funcionar como um mini-roteador. Além disso, possui também uma bateria que, segundo a empresa, oferece seis horas de serviço. O dispositivo tem 500GB de capacidade e está disponível em cinco cores, por R$ 849.
O Seagate Personal Cloud, como o próprio nome sugere, cria uma espécie de “nuvem pessoal” para a rede à qual ele é associado. Conectado a um roteador, ele automaticamente armazena suas fotos, vídeos, músicas e arquivos, as quais ele recebe por meio de rede sem fio. Computadores em sistemas operacionais da Microsoft ou da Apple, celulares e tablets Android e iOS e até mesmo televisões com conexão WiFi podem acessar os dados armazenados nele por meio de um aplicativo próprio da Seagate. Além disso, ele também pode ser acessado remotamente enquanto ele estiver conectado à internet. Ele está disponível no Brasil com 3TB de capacidade, e custa R$ 1.299.
Wellington
Cada ser humano é único, implicando que as decisões sobre como gerenciar as finanças pessoais, devem levar em consideração as peculiaridades de cada indivíduo/família. Dessa forma, educar-se, financeiramente falando, requer um conjunto de ações a serem colocadas em prática, com o propósito de atingir objetivos que, muitas vezes, transcendem às questões puramente financeiras. Dentro desse conjunto de ações, é possível destacar algumas importantes: gerenciamento de riscos, desenvolvimento de habilidades, busca por novos conhecimentos, aperfeiçoamento das relações interpessoais, planejamento do orçamento pessoal, definição de objetivos, dentre outros. Tais ações significam, constantemente, buscar inovar, construir, diferenciar-se, ir além. Podemos inferir, portanto, que o “sucesso” financeiro e pessoal é baseado em atitudes proativas, que pouco dependem de questões externas, mas da própria força de vontade de fazer acontecer, de aceitar a possibilidade de mudanças.
Do lado oposto aos que agem buscando conquistar seus objetivos, estão aqueles que apenas reagem às circunstâncias. Pessoas reativas, geralmente, estão ligadas ao conformismo, aceitação e submissão. Muitas vezes, essa postura defensiva tem sua origem no medo de errar. Não se assume riscos, planejamento parece algo inalcançável, e as prioridades são sempre adiadas. Vive-se apenas o dia a dia, gastando o precioso tempo disponível administrando conflitos (pagamento de dívidas, contas do mês etc) e realizando tarefas que permitam alguma fuga da realidade (comprando compulsivamente, navegando nas redes sociais, assistindo programas de entretenimento na TV, dentre outros).
O que estou querendo argumentar é que, sendo a administração do dinheiro uma arte, a forma como nos comportamos diariamente irá refletir, indubitavelmente, na obra do próprio artista. Pessoas que agem, farão de suas finanças pessoais um instrumento poderoso, em busca do bem estar físico, psicológico, intelectual e espiritual. Já aquelas que apenas reagem, serão moldadas conforme o ambiente em que estão inseridas, encontrando-se em posição passiva e cegas às oportunidades. Certamente, apenas agir não é condição suficiente para atingir a felicidade, mas é necessária. As ações devem estar pautadas em princípios sólidos e valores corretos. Isso porque de nada adianta ser alguém proativo, se todo o esforço está sendo feito na direção errada. Para não cair nessa armadilha, é preciso, primeiramente, se conhecer, definir as prioridades e focar naquilo que é importante.
Cada ser humano é único, implicando que as decisões sobre como gerenciar as finanças pessoais, devem levar em consideração as peculiaridades de cada indivíduo/família. Dessa forma, educar-se, financeiramente falando, requer um conjunto de ações a serem colocadas em prática, com o propósito de atingir objetivos que, muitas vezes, transcendem às questões puramente financeiras. Dentro desse conjunto de ações, é possível destacar algumas importantes: gerenciamento de riscos, desenvolvimento de habilidades, busca por novos conhecimentos, aperfeiçoamento das relações interpessoais, planejamento do orçamento pessoal, definição de objetivos, dentre outros. Tais ações significam, constantemente, buscar inovar, construir, diferenciar-se, ir além. Podemos inferir, portanto, que o “sucesso” financeiro e pessoal é baseado em atitudes proativas, que pouco dependem de questões externas, mas da própria força de vontade de fazer acontecer, de aceitar a possibilidade de mudanças.
Do lado oposto aos que agem buscando conquistar seus objetivos, estão aqueles que apenas reagem às circunstâncias. Pessoas reativas, geralmente, estão ligadas ao conformismo, aceitação e submissão. Muitas vezes, essa postura defensiva tem sua origem no medo de errar. Não se assume riscos, planejamento parece algo inalcançável, e as prioridades são sempre adiadas. Vive-se apenas o dia a dia, gastando o precioso tempo disponível administrando conflitos (pagamento de dívidas, contas do mês etc) e realizando tarefas que permitam alguma fuga da realidade (comprando compulsivamente, navegando nas redes sociais, assistindo programas de entretenimento na TV, dentre outros).
O que estou querendo argumentar é que, sendo a administração do dinheiro uma arte, a forma como nos comportamos diariamente irá refletir, indubitavelmente, na obra do próprio artista. Pessoas que agem, farão de suas finanças pessoais um instrumento poderoso, em busca do bem estar físico, psicológico, intelectual e espiritual. Já aquelas que apenas reagem, serão moldadas conforme o ambiente em que estão inseridas, encontrando-se em posição passiva e cegas às oportunidades. Certamente, apenas agir não é condição suficiente para atingir a felicidade, mas é necessária. As ações devem estar pautadas em princípios sólidos e valores corretos. Isso porque de nada adianta ser alguém proativo, se todo o esforço está sendo feito na direção errada. Para não cair nessa armadilha, é preciso, primeiramente, se conhecer, definir as prioridades e focar naquilo que é importante.
Wellington

(Foto: reprodução)
A HGST, subsidiária da Western Digital, apresentou um novo HD que é o sonho de qualquer pessoa ou empresa que tem necessidade de guardar muitos arquivos. A empresa revelou o 10TB SMR HelioSeal HDD, que, como o nome já adianta, consegue guardar 10 terabytes de dados.
No entanto, por mais que haja o impulso para conectar o aparelho no seu computador, é importante notar que ele não foi feito para isso, pelo menos por enquanto. A empresa pensa em fornecê-lo para datacenters, então quem deve ficar satisfeito com a novidade são adminstradores de servidores.
Esse cuidado na restrição da comercialização do produto é tomado porque para atingir essa marca, é necessário adicionar o suporte também nos sistemas operacionais, o que foi feito apenas no Linux, muito usado para servidores e datacenters.

O suporte total a este tipo de tecnologia chegará apenas com o kernel 3.19 do Linux.Isso porque o HD usa duas tecnologias complementares para operar, chamadas HelioSeal e SMR (Shingle Magnetic Recording), que necessitam de um cuidado extra.
A peça estará disponível no mercado na segunda metade de 2015. Ainda não há previsão de preço, mas os representantes da HGST dizem que o custo total, considerando economia de energia, e corte de contas de refrigeração e o aumento da densidade de armazenamento, será razoável.
No entanto, por mais que haja o impulso para conectar o aparelho no seu computador, é importante notar que ele não foi feito para isso, pelo menos por enquanto. A empresa pensa em fornecê-lo para datacenters, então quem deve ficar satisfeito com a novidade são adminstradores de servidores.
Esse cuidado na restrição da comercialização do produto é tomado porque para atingir essa marca, é necessário adicionar o suporte também nos sistemas operacionais, o que foi feito apenas no Linux, muito usado para servidores e datacenters.

O suporte total a este tipo de tecnologia chegará apenas com o kernel 3.19 do Linux.Isso porque o HD usa duas tecnologias complementares para operar, chamadas HelioSeal e SMR (Shingle Magnetic Recording), que necessitam de um cuidado extra.
A peça estará disponível no mercado na segunda metade de 2015. Ainda não há previsão de preço, mas os representantes da HGST dizem que o custo total, considerando economia de energia, e corte de contas de refrigeração e o aumento da densidade de armazenamento, será razoável.

(Foto: reprodução)
A HGST, subsidiária da Western Digital, apresentou um novo HD que é o sonho de qualquer pessoa ou empresa que tem necessidade de guardar muitos arquivos. A empresa revelou o 10TB SMR HelioSeal HDD, que, como o nome já adianta, consegue guardar 10 terabytes de dados.
No entanto, por mais que haja o impulso para conectar o aparelho no seu computador, é importante notar que ele não foi feito para isso, pelo menos por enquanto. A empresa pensa em fornecê-lo para datacenters, então quem deve ficar satisfeito com a novidade são adminstradores de servidores.
Esse cuidado na restrição da comercialização do produto é tomado porque para atingir essa marca, é necessário adicionar o suporte também nos sistemas operacionais, o que foi feito apenas no Linux, muito usado para servidores e datacenters.

O suporte total a este tipo de tecnologia chegará apenas com o kernel 3.19 do Linux.Isso porque o HD usa duas tecnologias complementares para operar, chamadas HelioSeal e SMR (Shingle Magnetic Recording), que necessitam de um cuidado extra.
A peça estará disponível no mercado na segunda metade de 2015. Ainda não há previsão de preço, mas os representantes da HGST dizem que o custo total, considerando economia de energia, e corte de contas de refrigeração e o aumento da densidade de armazenamento, será razoável.
No entanto, por mais que haja o impulso para conectar o aparelho no seu computador, é importante notar que ele não foi feito para isso, pelo menos por enquanto. A empresa pensa em fornecê-lo para datacenters, então quem deve ficar satisfeito com a novidade são adminstradores de servidores.
Esse cuidado na restrição da comercialização do produto é tomado porque para atingir essa marca, é necessário adicionar o suporte também nos sistemas operacionais, o que foi feito apenas no Linux, muito usado para servidores e datacenters.

O suporte total a este tipo de tecnologia chegará apenas com o kernel 3.19 do Linux.Isso porque o HD usa duas tecnologias complementares para operar, chamadas HelioSeal e SMR (Shingle Magnetic Recording), que necessitam de um cuidado extra.
A peça estará disponível no mercado na segunda metade de 2015. Ainda não há previsão de preço, mas os representantes da HGST dizem que o custo total, considerando economia de energia, e corte de contas de refrigeração e o aumento da densidade de armazenamento, será razoável.
Wellington

(Foto: reprodução/Bloomberg)
Uma vida humana considerada longa dificilmente supera os 100 anos. O Google acredita que esse limite está aí para ser superado em muito. Bill Maris, um alto executivo da companhia crê que esse número pode ser multiplicado em pelo menos cinco vezes. “Se você me perguntar hoje ‘é possível viver até os 500?’, minha resposta é sim”, explica ele em longo perfil da revista Bloomberg.
Maris é presidente da Google Ventures, um braço da gigante de buscas que procura investir em startups e empresas com algum projeto revolucionário em basicamente qualquer área da ciência ou tecnologia. No entanto, a grande meta é realmente estender a vida humana apostando nos avanços da medicina.
Dos US$ 2 bilhões já investidos pela Google Ventures em outras empresas, a maior parte é dedicada a alavancar projetos de saúde e ciências da vida. É o caso da Calico, um centro de pesquisa criado recentemente que tem o objetivo explícito de “curar a morte”. Talvez seja um exagero, mas a meta é clara de reverter o processo de envelhecimento para ampliar a vida.

Outros projetos da companhia, mais precisamente do laboratório Google X (divisão que desenvolve os projetos mais ambiciosos da empresa como o Glass e os carros autônomos), incluem uma pílula de nanopartículas que são jogadas na corrente sanguínea para detectar doenças e mutações cancerígenas.
Uma das empresas apoiadas pela Google Ventures que mais tem chamado a atenção é a Foundation Medicine. Sua missão inclui o uso de dados genéticos para criar ferramentas de diagnótisco oncológico e gerou tanto burburinho que teve a parte majoritária de suas ações compradas pela Roche por US$ 1 bilhão em janeiro deste ano, e o Google ainda mantém controle de 4% dos papéis.
A aposta na Foundation Medicine veio ainda em 2011, quando a companhia era praticamente apenas uma teoria, mesmo com a participação de nomes significativos como Eric Lander, um dos líderes do Projeto Genoma, que mapeou o genoma humano em 2003. De lá para cá, com a evolução da tecnologia foram criados produtos como o Interactive Cancer Explorer, uma espécie de Google para os oncologistas, e que tem feito a diferença no diagnóstico do câncer.
Para encontrar companhias promissoras na área de saúde, o processo é mais complexo do que simplesmente encontrar bons programadores com uma ideia interessante de aplicativo, já que a biotecnologia é complexa e requer investimentos altos, parcerias com gigantes farmacêuticas e testes clínicos. Por isso, Maris tem ao seu lado cientistas que atuam como parceiros. É o caso de Krishna Yeshwant, um médico que ajudou a liderar um investimento na Flatiron Health, que desenvolve uma plataforma em nuvem para análise de dados do câncer.
Bill Maris tem certeza de que a tecnologia de saúde em duas décadas será completamente diferente do que temos hoje, e possivelmente essa revolução passará por suas mãos. “Isso é só o começo. Em 20 anos, a quimioterapia será considerada tão primitiva quanto usar um telégrafo”, explica ele à Bloomberg.
Dos US$ 2 bilhões já investidos pela Google Ventures em outras empresas, a maior parte é dedicada a alavancar projetos de saúde e ciências da vida. É o caso da Calico, um centro de pesquisa criado recentemente que tem o objetivo explícito de “curar a morte”. Talvez seja um exagero, mas a meta é clara de reverter o processo de envelhecimento para ampliar a vida.

Outros projetos da companhia, mais precisamente do laboratório Google X (divisão que desenvolve os projetos mais ambiciosos da empresa como o Glass e os carros autônomos), incluem uma pílula de nanopartículas que são jogadas na corrente sanguínea para detectar doenças e mutações cancerígenas.
Uma das empresas apoiadas pela Google Ventures que mais tem chamado a atenção é a Foundation Medicine. Sua missão inclui o uso de dados genéticos para criar ferramentas de diagnótisco oncológico e gerou tanto burburinho que teve a parte majoritária de suas ações compradas pela Roche por US$ 1 bilhão em janeiro deste ano, e o Google ainda mantém controle de 4% dos papéis.
A aposta na Foundation Medicine veio ainda em 2011, quando a companhia era praticamente apenas uma teoria, mesmo com a participação de nomes significativos como Eric Lander, um dos líderes do Projeto Genoma, que mapeou o genoma humano em 2003. De lá para cá, com a evolução da tecnologia foram criados produtos como o Interactive Cancer Explorer, uma espécie de Google para os oncologistas, e que tem feito a diferença no diagnóstico do câncer.
Para encontrar companhias promissoras na área de saúde, o processo é mais complexo do que simplesmente encontrar bons programadores com uma ideia interessante de aplicativo, já que a biotecnologia é complexa e requer investimentos altos, parcerias com gigantes farmacêuticas e testes clínicos. Por isso, Maris tem ao seu lado cientistas que atuam como parceiros. É o caso de Krishna Yeshwant, um médico que ajudou a liderar um investimento na Flatiron Health, que desenvolve uma plataforma em nuvem para análise de dados do câncer.
Bill Maris tem certeza de que a tecnologia de saúde em duas décadas será completamente diferente do que temos hoje, e possivelmente essa revolução passará por suas mãos. “Isso é só o começo. Em 20 anos, a quimioterapia será considerada tão primitiva quanto usar um telégrafo”, explica ele à Bloomberg.

(Foto: reprodução/Bloomberg)
Uma vida humana considerada longa dificilmente supera os 100 anos. O Google acredita que esse limite está aí para ser superado em muito. Bill Maris, um alto executivo da companhia crê que esse número pode ser multiplicado em pelo menos cinco vezes. “Se você me perguntar hoje ‘é possível viver até os 500?’, minha resposta é sim”, explica ele em longo perfil da revista Bloomberg.
Maris é presidente da Google Ventures, um braço da gigante de buscas que procura investir em startups e empresas com algum projeto revolucionário em basicamente qualquer área da ciência ou tecnologia. No entanto, a grande meta é realmente estender a vida humana apostando nos avanços da medicina.
Dos US$ 2 bilhões já investidos pela Google Ventures em outras empresas, a maior parte é dedicada a alavancar projetos de saúde e ciências da vida. É o caso da Calico, um centro de pesquisa criado recentemente que tem o objetivo explícito de “curar a morte”. Talvez seja um exagero, mas a meta é clara de reverter o processo de envelhecimento para ampliar a vida.

Outros projetos da companhia, mais precisamente do laboratório Google X (divisão que desenvolve os projetos mais ambiciosos da empresa como o Glass e os carros autônomos), incluem uma pílula de nanopartículas que são jogadas na corrente sanguínea para detectar doenças e mutações cancerígenas.
Uma das empresas apoiadas pela Google Ventures que mais tem chamado a atenção é a Foundation Medicine. Sua missão inclui o uso de dados genéticos para criar ferramentas de diagnótisco oncológico e gerou tanto burburinho que teve a parte majoritária de suas ações compradas pela Roche por US$ 1 bilhão em janeiro deste ano, e o Google ainda mantém controle de 4% dos papéis.
A aposta na Foundation Medicine veio ainda em 2011, quando a companhia era praticamente apenas uma teoria, mesmo com a participação de nomes significativos como Eric Lander, um dos líderes do Projeto Genoma, que mapeou o genoma humano em 2003. De lá para cá, com a evolução da tecnologia foram criados produtos como o Interactive Cancer Explorer, uma espécie de Google para os oncologistas, e que tem feito a diferença no diagnóstico do câncer.
Para encontrar companhias promissoras na área de saúde, o processo é mais complexo do que simplesmente encontrar bons programadores com uma ideia interessante de aplicativo, já que a biotecnologia é complexa e requer investimentos altos, parcerias com gigantes farmacêuticas e testes clínicos. Por isso, Maris tem ao seu lado cientistas que atuam como parceiros. É o caso de Krishna Yeshwant, um médico que ajudou a liderar um investimento na Flatiron Health, que desenvolve uma plataforma em nuvem para análise de dados do câncer.
Bill Maris tem certeza de que a tecnologia de saúde em duas décadas será completamente diferente do que temos hoje, e possivelmente essa revolução passará por suas mãos. “Isso é só o começo. Em 20 anos, a quimioterapia será considerada tão primitiva quanto usar um telégrafo”, explica ele à Bloomberg.
Dos US$ 2 bilhões já investidos pela Google Ventures em outras empresas, a maior parte é dedicada a alavancar projetos de saúde e ciências da vida. É o caso da Calico, um centro de pesquisa criado recentemente que tem o objetivo explícito de “curar a morte”. Talvez seja um exagero, mas a meta é clara de reverter o processo de envelhecimento para ampliar a vida.

Outros projetos da companhia, mais precisamente do laboratório Google X (divisão que desenvolve os projetos mais ambiciosos da empresa como o Glass e os carros autônomos), incluem uma pílula de nanopartículas que são jogadas na corrente sanguínea para detectar doenças e mutações cancerígenas.
Uma das empresas apoiadas pela Google Ventures que mais tem chamado a atenção é a Foundation Medicine. Sua missão inclui o uso de dados genéticos para criar ferramentas de diagnótisco oncológico e gerou tanto burburinho que teve a parte majoritária de suas ações compradas pela Roche por US$ 1 bilhão em janeiro deste ano, e o Google ainda mantém controle de 4% dos papéis.
A aposta na Foundation Medicine veio ainda em 2011, quando a companhia era praticamente apenas uma teoria, mesmo com a participação de nomes significativos como Eric Lander, um dos líderes do Projeto Genoma, que mapeou o genoma humano em 2003. De lá para cá, com a evolução da tecnologia foram criados produtos como o Interactive Cancer Explorer, uma espécie de Google para os oncologistas, e que tem feito a diferença no diagnóstico do câncer.
Para encontrar companhias promissoras na área de saúde, o processo é mais complexo do que simplesmente encontrar bons programadores com uma ideia interessante de aplicativo, já que a biotecnologia é complexa e requer investimentos altos, parcerias com gigantes farmacêuticas e testes clínicos. Por isso, Maris tem ao seu lado cientistas que atuam como parceiros. É o caso de Krishna Yeshwant, um médico que ajudou a liderar um investimento na Flatiron Health, que desenvolve uma plataforma em nuvem para análise de dados do câncer.
Bill Maris tem certeza de que a tecnologia de saúde em duas décadas será completamente diferente do que temos hoje, e possivelmente essa revolução passará por suas mãos. “Isso é só o começo. Em 20 anos, a quimioterapia será considerada tão primitiva quanto usar um telégrafo”, explica ele à Bloomberg.
Wellington
De fato, as campanhas de diversidade dos assinantes de internet no Brasil tem alavancado os
internautas.
Fonte dos palestrastes do Congresso de Afiliados 2015 que participei alegam que no total 103.000.000 internautas com diversificadas fontes correspondente 50% da população brasileira. Eles constam desse patamar porque relevam seu conhecimentos em busca de nicho para afiliarem ou mesmo produção de venda proporcionando pelos seus despachos online, e o rank de aproximadamente de 92% de utilitário de e-mail entre os meados de 1971 foi o primeiro envio.
As expectações mundiais até 2020 será de 3.2 bilhões. Mark Zuckerberg, CEO criador do Facebook
está promovendo abertura da expansão da rede de internet em países com baixa sintonia que não elencam a população de informantes da condição do empenho de notificações pouco elevantes.
De fato, as campanhas de diversidade dos assinantes de internet no Brasil tem alavancado os
internautas.
Fonte dos palestrastes do Congresso de Afiliados 2015 que participei alegam que no total 103.000.000 internautas com diversificadas fontes correspondente 50% da população brasileira. Eles constam desse patamar porque relevam seu conhecimentos em busca de nicho para afiliarem ou mesmo produção de venda proporcionando pelos seus despachos online, e o rank de aproximadamente de 92% de utilitário de e-mail entre os meados de 1971 foi o primeiro envio.
As expectações mundiais até 2020 será de 3.2 bilhões. Mark Zuckerberg, CEO criador do Facebook
está promovendo abertura da expansão da rede de internet em países com baixa sintonia que não elencam a população de informantes da condição do empenho de notificações pouco elevantes.
Wellington








