
English: 
In 2012, a researcher named Glenn Begley published
a commentary in the journal Nature.
He said that during his decade as the head
of cancer research for Amgen -- an American
pharmaceutical company -- he’d tried to
reproduce the results of 53 so-called “landmark”
cancer studies.
But his team wasn’t able to replicate 47
out of those 53 studies.
That means that /88 percent/ of these really
important cancer studies couldn’t be reproduced.
Then, in August 2015, a psychologist named
Brian Nosek published /another/ paper, this
time in the journal Science.
Over the course of the previous three years,
he said, he’d organized repeats of 100 psychological
studies.
97 of the original experiments had reported
statistically significant results -- that
is, results that were most likely caused by
variables in the experiment, and not some
coincidence.

French: 
En 2012, un chercheur nommé Glenn Begley a publié un commentaire dans le journal Nature.
Il a expliqué que durant cette décennie à la tête des recherches contre le cancer à Amgen - une compagnie
pharmaceutique américaine - il a essayé de reproduire les résultats de 53 études de référence
contre le cancer.
Mais son équipe n'a pas réussi à dupliquer 47 des 53 études. Ce qui veut dire que 88%
de ces études très importantes contre le cancer ne pouvaient être reproduites.
Puis en 2015, un psychologue du nom de Brian Nosek a publié un autre article, cette fois
dans le journal Science.
Pendant les 3 dernières années, il a dit avoir organisé des répliques de 100 études
de psychologie.
97 des expériences originales ont rapportés des résultats statistiquement significatifs,
ce qui veut dire que les résultats étaient dus aux variables de l'expérience et non
à une coïncidence.

Portuguese: 
Em 2012, um pesquisador chamado Glenn Begley publicou um comentário na revista Nature.
Ele disse que nas décadas em que trabalhou como líder de pesquisa sobre câncer na Amgen -- uma
compania farmacêutica estadunidense -- tentou reproduzir resultados de 53 estudos sobre câncer considerados "pontos  de referência".
 
Mas seu time de pesquisadores não foi capaz de replicar 47 dos 53 estudos. O que significa que
88% desses importantes estudos sobre câncer não puderam ser reproduzidos.
Então, em Agosto de 2015, um psicólogo chamado Brian Nosek publicou outro artigo, desta
vez na revista Science.
Com o passar desses três anos,  ele disse que organizou a reprodução de 100 estudos psicológicos.
 
97 dos experimentos originais reportaram resultados estatisticamente significantes -- ou seja,
resultados que possuem mais chance de terem sido causados por variáveis no experimento, e não alguma coincidência.
 

English: 
But when his team tried to reproduce those
results, they only got /36/ significant results
-- barely a third of what the original studies
had found.
It seems like every few months, there’s
some kind of news about problems with the
scientific publishing industry.
A lot of people -- both scientists and science
enthusiasts -- are concerned.
Why does this keep happening?
And what can be done to fix the system?
[intro]
Right now, the scientific publishing industry
is going through what’s being called a Replication,
or Reproducibility Crisis.
Researchers are repeating earlier studies,
trying to reproduce the experiments as closely
as possible.
One group might publish findings that look
promising, and other groups might use those
results to develop their own experiments.
But if the original study was wrong, that’s
a whole lot of time and money right down the
drain.
In theory, these repeat studies should be
finding the same results as the original experiments.
If a cancer drug worked in one study, and
a separate group repeats that study under
the same conditions, the cancer drug should
still work.
But that’s not what happened with Begley’s
cancer studies.
And researchers in other fields have been
having the same problem.
They’re repeating earlier studies, and they
aren’t getting the same results.

Portuguese: 
Mas quando seu time de pesquisadores tentou reproduzir tais resultados, foram obtidos apenas 36 resultados significantes
-- pouco mais de um terço do que os estudos originais encontraram.
Parece que de meses em meses, surge alguma notícia a respeito de problemas com a
indústria de publicação científica.
Muitas pessoas -- tanto cientistas quanto entusiastas da ciência -- estão preocupadas.
Por que isto continua acontecendo?
E o que pode ser feito para corrigir o sistema?
 
Atualmente, a indústria de publicação científica está passando pelo que está sendo chamado de Crise de Replicação,
ou Crise de Reprodutibilidade.
Pesquisadores estão repetindo estudos mais antigos a fim de reproduzir os experimentos da melhor forma possível.
 
Um grupo pode publicar resultados que parecem promissores, e outro grupo pode usar
tais resultados para desenvolver os próprios experimentos. Mas se o estudo original estiver errado, isso resultaria
em muito tempo e dinheiro indo ralo abaixo.
Em teoria, estes estudos de repetição deveriam encontrar os mesmos resultados dos experimentos originais.
Se uma droga para câncer funcionou em um estudo, e um outro grupo repete o mesmo estudo sobre
as mesmas condições, a droga deveria funcionar da mesma forma.
Mas isto não é o que aconteceu com os estudos sobre câncer de Begley. E pesquisadores em outros campos
de atuação estão tendo os mesmos problemas.
Eles estão repetindo estudos mais antigos, e não estão conseguindo os mesmos resultados.

French: 
Mais quand l'équipe a tenté de reproduire ces résultats, ils ont obtenus seulement 37 résultats significatifs.
À peine 1/3 de ce que les études originales avaient trouvés.
Tous les quelques mois, il y a des articles qui remettent en cause des publications
de l'industrie scientifique.
De nombreuses personnes, scientifiques et passionnés de science, sont inquiets.
Pourquoi cela se répète ?
Et qu'est-ce qui peut être fait pour résoudre le problème ?
 
En ce moment, l'industrie de la publication scientifique traverse une crise de la reproductibilité.
 
Les chercheurs récréent des études antérieures pour tenter de reproduire les expériences le plus fidèlement
possible.
Un groupe peut publier des résultats prometteurs et d'autres groupes peuvent les utiliser
pour développer leurs propres expériences.
Mais si l'expérience originale était fausse, c'est
une grande quantité de temps et d'argent jeté par la fenêtre.
En théorie, ces réplications d'études devraient trouver les même résultats que les études originales.
Si un traitement contre le cancer à fonctionné dans une étude, et qu'un autre groupe indépendant réitère l'étude
dans les même conditions, le traitement devrait également fonctionner.
Mais ce n'est pas ce qu'il s'est passé dans les études contre le cancer de Begley. Et des chercheurs dans
d'autres domaines ont eu le même problème.
Ils récréent des expériences antérieures, mais ils ne retrouvent pas les même résultats.

French: 
Alors pourquoi ces résultats inexacts ont été publiés la première fois ?
Et bien, parfois, les gens s'arrangent avec la réalité et inventent, mais c'est assez rare.
En général, c'est un problème avec les outils de recherche, la façon dont l'étude à été conçue ou la façon
dont les données ont été interprétées.
Prenez un exemple dans le monde de la biomédecine. Les chercheurs
travaillant avec des protéines utilisent souvent des anticorps pour les aider dans leurs recherches.
Vous savez probablement que les anticorps font partie de notre système immunitaire et nous aident à éliminer les menaces extérieures,
mais dans la recherche scientifique, les anticorps peuvent être utilisés pour identifier des protéines spécifiques.
Et dernièrement, il y a eu des preuves selon lesquelles ces anticorps ne sont pas aussi fiables que
les scientifiques le croyaient.
Les entreprises
créent des antibiotiques que les chercheurs achètent et ils annoncent dans leurs catalogues
quelles anticorps sont associés avec quelles protéines.
Le problème est que ces labels ne sont pas toujours exacts. Et si les chercheurs ne vérifient pas si l'anticorps
fonctionne de la façon souhaitée, cela peut fausser leurs résultats.
Une analyse publiée en 2011 dans le journal Nature Structurelle & Biologie Moléculaire
a testé 246 de ces anticorps, chacun étant supposé être associée à une seule molécule spécifique.
Mais il s'est avéré que 1/4 d'entre elles pouvaient cibler plus d'une protéine !
Mais il s'est avéré que 1/4 d'entre elles pouvaient cibler plus d'une protéine !

Portuguese: 
Então por que resultados imprecisos estão sendo publicados em primeiro lugar?
Bem, as vezes pessoas realmente estão inventando coisas, mas isso é relativamente raro.
Geralmente, isso ocorre devido a ferramentas de pesquisas inapropriadas, a forma que o estudo foi projetado, ou a maneira como
os dados são interpretados.
Tome um exemplo do mundo da biomedicina.
Pesquisadores que trabalham com proteínas usam com frequência anticorpos para ajudá-los com as pesquisas.
Você deve conhecer anticorpos como sendo parte do sistema imunológico que ajuda a detectar invasores,
mas em pesquisas científicas, anticorpos podem ser usados para detectar proteínas específicas.
E recentemente, têm havido muitas evidências de que estes anticorpos não são tão confiáveis
como cientistas têm sido levados a acreditar.
Companhias produzem estes anticorpos para que pesquisadores possam comprá-los, e eles dirão em seus catálogos
quais anticorpos detectam quais proteínas.
O problema é, os rótulos nem sempre estão corretos. E se pesquisadores não checarem
para ter certeza de que os anticorpos deles funcionam como deveriam, eles podem interpretar incorretamente seus resultados.
Uma análise, publicada em 2011 em um jornal chamado Natureza Estrutural & Biologia Molecular,
testou 246 destes anticorpos, cada qual dizendo se ligar com uma proteína em particular.
 
Mas percebeu-se que cerca de um quarto deles na verdade detectaram mais de uma proteína.

English: 
So why are these inaccurate results getting
published in the first place?
Well, sometimes people really are just making
things up, but that’s relatively rare.
Usually, it has to do with misleading research
tools, the way a study is designed, or the
way data are interpreted.
Take an example from the world of biomedicine.
Researchers who work with proteins will often
use antibodies to help them with their research.
You might know antibodies as a part of your
immune system that helps target outside invaders,
but in scientific research, antibodies can
be used to target specific proteins.
And lately, there’s been a lot of evidence
that these antibodies aren’t as reliable
as scientists have been led to believe.
Companies produce these antibodies so researchers
can buy them, and they’ll say in their catalog
which antibodies go with which proteins.
The problem is, those labels aren’t always
right.
And if researchers don’t check to make sure
that their antibody works the way it should,
they can misinterpret their results.
One analysis, published in 2011 in a journal
called Nature Structural & Molecular Biology,
tested 246 of these antibodies, each of which
was said to only bind with one particular
protein.
But it turned out that about a quarter of
them actually targeted more than one protein.

French: 
Et 4 d'entre elles pouvaient cibler une mauvaise sorte de protéine.
Les chercheurs ont utilisé ces anticorps pour détecter des protéines dans leurs expériences, mais si les
anticorps ont ciblé de mauvaises cibles, alors on obtient de faux-positifs
et donc des résultats biaisés.
C'est exactement ce qui s'est passé dans l'hôpital du Mont Sinaï à Toronto.
Deux ans et un demi-million de dollars gaspillés en utilisant un anticorps censé cibler une protéine
que l'on pensait lié au cancer du pancréas.
Il s'est avéré que durant tout ce temps, les anticorps se sont associés à
un type de protéine différent et n'ont même pas ciblé la protéine qu'ils recherchaient.
L'industrie de production d'anticorps fait face à des problèmes de contrôle-qualité et cela
L'industrie de production d'anticorps fait face à des problèmes de contrôle-qualité et cela
affecte de nombreuses études biomédicales.
Certaines entreprises ont déjà pris les devants pour assurer la qualité de leurs produits - l'une d'entre elle
a revu l'intégralité de son catalogue en 2014 et a divisé par 3 son offre.
Les chercheurs pourraient tester les anticorps eux-même pour s'assurer qu'ils s'associent bien
avec l'unique protéine qu'ils sont censés cibler. Mais cela reviendrait à mener une étude entière et différente,
avant même de commencer le projet principal.
La plupart
des groupes de chercheurs n'ont ni le temps, ni l'argent pour cela.

English: 
And four of /those/ … actually targeted
the wrong kind of protein.
Researchers were using this stuff to detect
proteins in their experiments, but the antibodies
could have been binding with a completely
different materials -- creating false positives
and therefore, flawed results.
That’s exactly what happened to researchers
at Mount Sinai Hospital in Toronto.
They wasted two years and half a million dollars
using an antibody to look for a specific protein
that they thought might be connected to pancreatic
cancer.
Then they figured out that the whole time,
the antibody had actually been binding to
a /different/ cancer protein, and didn’t
even target the protein they were looking
for.
So the antibody-production industry is having
some quality control problems, and it’s
affecting a lot of biomedical research.
Some companies have already taken steps to
try and ensure quality -- one reviewed its
entire catalogue in 2014 and cut about a third
of the antibodies it had been offering.
Now, researchers /could/ try testing the antibodies
themselves, to make sure they only bind to
the protein they’re supposed to.
But that’s like conducting a whole separate
study before they even get to start on the
main project.
Most research groups don’t have the time
or money to do that.

Portuguese: 
E quatro desses na verdade detectaram o tipo errado de proteína.
Pesquisadores vieram usando estas coisas para detectar proteínas em seus experimentos, mas os anticorpos
poderiam estar ligando-se com materiais completamente diferentes -- criando falso positivos,
e consequentemente, resultados falhos.
É exatamente isso que aconteceu com pesquisadores do Hospital Mount Sinai em Toronto.
Eles desperdiçaram dois anos e meio milhão de dólares usando anticorpos a fim de localizar uma proteína específica
que eles pensaram estar conectada com o câncer pancreático.
Então eles descobriram que o tempo todo, os anticorpos estavam na verdade ligando-se com
uma proteína cancerígena diferente, e nem ao menos detectavam a proteína que estavam procurando.
 
Logo a indústria de produção de anticorpos está tendo alguns problemas no controle de qualidade, e isto
está afetando muitas pesquisas biomédicas.
Algumas companhias já estão tentando garantir qualidade -- uma delas revisou seu
catálogo inteiro em 2014 e deixou de produzir um terço dos anticorpos que oferecia.
Agora, pesquisadores poderiam testar os anticorpos em si, para ter certeza de que eles apenas ligam-se
com a proteína que eles deveriam. Mas isso seria como conduzir todo um estudo separado antes
dele sequer começarem o projeto principal.
A maioria dos grupos de pesquisadores não possuem tempo ou dinheiro necessário para tal.

English: 
But now that scientists are aware of the issue,
they can at least be more careful about where
they get their antibodies.
Having accurate tools for research isn’t
enough, though.
Part of the reproducibility crisis also has
to do with how experiments are designed.
This can be a problem in all kinds of different
fields, but it’s especially an issue for
psychology, where results often depend on
human experience, which can be very subjective.
Experiments are supposed to be designed to
control for as many external factors as possible,
so that you can tell if your experiment is
actually what’s leading to the effect.
But in psychology, you can’t really control
for all possible external factors.
Too many of them just have to do with the
fact that humans are human.
One classic experiment, for example, showed
that when when people had been exposed to
words related to aging, they walked more slowly.
Another research group tried to replicate
that study and failed, but that doesn’t
necessarily prove or disprove the effect.
It’s possible that the replication study
exposed the subjects to too /many/ aging-related
words, which might have ruined the subconscious
effect.
Factors that weren’t directly related to
the study could have also affected the results
-- like what color the room was, or the day
of the week.
When such tiny differences can change the
results of a study, it’s not too surprising

Portuguese: 
Mas agora que cientistas estão cientes do problema, eles podem ao menos ser mais cautelosos sobre de
onde eles conseguem os anticorpos.
Porém ter ferramentas precisas para pesquisa não é o suficiente. Parte da crise de replicabilidade
também tem a ver com como os experimento são projetados.
Isto pode ser um problema em todos os diferentes tipos de áreas de atuação, mas é especificamente um problema
para a psicologia, onde resultados costumam depender da experiência humana, a qual pode ser muito subjetiva.
Experimentos deveriam ser projetados para controlar a maior quantidade de fatores externos possível,
a fim de você poder dizer se seu experimento é realmente o que está ocasionando o efeito.
Mas na psicologia, não é possível de fato você controlar todos os fatores externos. Muitos
deles só tem a ver com o fato de humanos serem humanos.
Uma clássico experimento, por exemplo, mostrou que quando pessoas foram expostas a
palavras relacionadas a envelhecer, eles andavam mais devagar.
Outro grupo de pesquisas tentou replicar tal estudo e falhou, mas isto não
necessariamente prova ou desaprova o efeito.
É possível que o estudo replicado expôs os sujeitos a muitas palavras
relacionadas ao envelhecimento, o que poderia ter arruinado o efeito no subconsciente.
Fatores que não estavam diretamente relacionados com o estudo puderam também ter afetado os resultados
-- como qual era a sala, ou o dia da semana.
Quando pequenas diferenças podem mudar o resultado de um estudo, não é tão surpreendente

French: 
Mais maintenant que les scientifiques connaissent le problème, ils peuvent être plus prudent
au moment où ils récupèrent leurs anticorps.
Avoir des outils précis pour la recherche n'est cependant pas suffisant. Une partie de la crise de
reproductibilité est lié au design des expériences.
Cela peut-être un problème dans tout un tas de domaines, mais c'est surtout un problème dans la
psychologie où les résultats dépendant souvent de facteurs humains qui peuvent être très subjectifs.
Les expériences sont censées être conçues pour contrôler le plus de facteurs extérieurs possibles,
donc, vous pouvez dire que votre expérience est bien ce qui a crée les effets obtenus.
Mais en psychologie, vous ne pouvez pas contrôler tous les facteurs extérieurs possibles. La plupart d'entre eux sont liés
au fait que les hommes sont humains.
Une expérience classique, par exemple, a montré que lorsque l'on expose des gens à
des mots liés au vieillissement, ils marchent plus lentement.
Un autre groupe de recherche a tenté de dupliquer cette étude et a échoué, mais cela n'affirme
ni n'infirme l'effet.
Il est possible que l'étude reproduite a exposé les sujets à de trop nombreux mots liés au vieillissement,
ce qui aurait ruiné l'effet subconscient.
Des facteurs
qui ne sont pas directement liés à l'étude peuvent également avoir affecté l'étude
comme la couleur de la pièce, ou le jour de la semaine.
Quand de si petites différences peuvent changer les résultats d'une étude, il n'est pas très surprenant

Portuguese: 
que quando eles revisaram aqueles 100 artigos psicológicos, o grupo de pesquisa de Nosek foi capaz
de replicar apenas 36 dos 97 estudos de sucesso.
Mas isto também faz o resultado do estudo original ser bem fraco.
Pelo menos, ser capaz de replicar um estudo pode mostrar a força de seus resultados,
assim alguns cientistas tem pedindo para mais replicações serem feitas -- em muitos campos de atuação,
mas especialmente em psicologia.
Porque determinar a força do resultado de um experimento psicológico pode ser bem difícil.
O fato de jornais serem tão seletivos a respeito do que eles publicam é outra razão da qual os resultados
de um estudo podem vir a serem falsos.
Boa parte do tempo, pesquisadores são pressionados a fazer seus achados parecerem o mais forte possível.
Quando você publica artigos, você consegue financiamento para fazer mais pesquisas, e quanto mais dinheiro
você consegue, maior é a chance da instituição acadêmica te patrocinando querer
manter você.
O problema é que, jornais tendem mais a publicar resultados positivos do que negativos.
 
Digamos que você seja um biólogo, e você gastou três meses trabalhando em uma droga para câncer em potencial.
Se depois de três meses, você conseguir resultados positivos -- sugerindo que a droga funcionou -- então um jornal
provavelmente irá querer publicar esses resultados.

French: 
qu'en reprenant les 100 articles de psychologie, l'équipe de Nosek n'a réussi à
en reproduire que 36 sur 97 de façon satisfaisante.
Mais cela fragilise les résultats des études originales.
Au minimum, être capable de reproduire une étude montre la robustesse de ses résultats,
c'est pourquoi de nombreux scientifiques ont été appelés pour reproduire en masse des études, dans de nombreux domaines différents,
mais particulièrement en psychologie.
D'autant plus parce qu'il est très dur de connaître la robustesse des résultats dans une étude de psychologie.
Le fait que les journaux soient si sélectifs sur les résultats qu'ils publient est une autre raison pour laquelle
les études peuvent être fausses.
La plupart du temps, les chercheurs sont incités à donner à leurs résultats l'air le plus solide possible.
Quand vous publiez un article, vous obtenez des financements pour faire plus de recherches, et plus de
financements vous avez, plus le sponsoring de l'institution académique va souhaiter vous
garder.
Le problème étant que les journaux sont bien plus enclins à publier des résultats positifs que des résultats négatifs.
Disons que vous êtes biologiste, et que vous avez passé 3 mois à travailler sur un traitement contre le cancer.
Disons que vous êtes biologiste, et que vous avez passé 3 mois à travailler sur un traitement contre le cancer.
Si après 3 mois vous avez des résultats positifs - suggérant que le traitement fonctionne - alors un journal
va probablement vouloir publier vos résultats.

English: 
that when they reviewed those 100 psychology
papers, Nosek’s research group was only
able to replicate 36 out of 97 successful
studies.
But it also makes the results of the original
studies pretty weak.
At the very least, being able to replicate
a study can show the strength of its results,
so some scientists have been calling for more
replication to be done -- in lots of fields,
but especially in psychology.
Because it can just be hard to determine the
strength of the results of psychological experiments.
The fact that journals are so selective about
what they publish is another reason the results
of a study might turn out to be false.
A lot of the time, researchers are pressured
to make their findings look as strong as possible.
When you publish papers, you get funding to
do more research, and the more grant money
you bring in, the more likely it is that the
academic institution sponsoring you will want
to keep you.
The problem is, journals are MUCH more likely
to publish positive results than negative
ones.
Say you’re a biologist, and you spend three
months working on a potential cancer drug.
If after three months, you get positive results
-- suggesting the drug worked -- then a journal
will probably want to publish those results.

English: 
But if you end up with negative results -- the
drug didn’t work -- that’s just not as
interesting or exciting.
So negative results almost always go unpublished
-- which means that there’s a lot of pressure
on researchers to conduct experiments that
/do/ have positive results.
For example, Begley -- the biologist who led
the cancer replication studies at Amgen -- tried
an experiment 50 times and hadn’t been able
to reproduce the original results.
The lead researcher on the original study
told Begley that /his/ team had tried the
experiment 6 times, and gotten positive results
once.
So that’s what they published -- that one
positive result.
There’s so much pressure to publish significant
findings that researchers might not always
include all of their data in their analysis.
To get around this problem, some experts have
suggested creating a new standard, where researchers
include a line in their papers saying that
they’ve reported any excluded data and all
aspects of their analysis.
If including that statement became standard
practice, then if a paper /didn’t/ have
that line, that would be a red flag.
But even if researchers /do/ include all their
data, they might just be doing the analysis
wrong.
Because: data analysis involves math.

Portuguese: 
Mas se você acabar com um resultado negativo -- a droga não funcionou -- este apenas não é
tão interessante ou excitante.
Então resultados negativos quase nunca são publicados -- o que significa que há muita pressão
nos pesquisadores para conduzirem experimentos que de fato terão resultados positivos.
Por exemplo, Begley -- o biólogo que guiou a replicação dos estudos de câncer em Amgen -- tentou
um experimento 50 vezes e não foi capaz de reproduzir os resultados originais.
O pesquisador chefe do estudo original disse a Begley que seu time tentou o
experimento 6 vezes, e conseguiu resultado positivo uma vez.
Então esse é o que ele publicam -- aquele resultado positivo.
Há tanta pressão para publicar achados significantes que pesquisadores podem nem sempre
incluir todos os seus dados em suas análises.
Para contornar este problema, alguns experts tem sugerido criar um novo padrão, onde pesquisadores
incluam uma linha em seus artigos dizendo que eles reportaram qualquer dado excluído e todo
aspecto das suas análises.
Caso incluir esse pronunciamento se torne uma prática padrão, então se um artigo não tiver
essa linha, isso poderia ser um sinal de alerta.
Mas mesmo se pesquisadores realmente incluírem todos os seus dados, eles podem estar somente fazendo a análise errada.
Mas mesmo se pesquisadores realmente incluírem todos os seus dados, eles podem estar somente fazendo a análise errada.
Porque: análise de dados envolve matemática.

French: 
Mais si vous obtenez des résultats négatifs - le traitement ne fonctionne pas - ce n'est pas aussi
intéressant ou excitant.
Donc, les résultats négatifs sont rarement publiés, ce qui signifie que la pression est énorme sur les
chercheurs afin qu'ils conduisent des expériences avec des résultats positifs.
Par exemple, Begley - le biologiste qui a reproduit les études contre le cancer à Amgen - a tenté
une expérience 50 fois sans arriver à reproduire les résultats de l'étude originale.
Le chef de l'étude originale a annoncé à Begley que son équipe avait tenté
l'expérience 6 fois et avait réussi une fois.
C'est pourquoi ils ont publié cette réussite là.
Il y a tellement de pression pour la publication de résultats significatifs que les chercheurs peuvent
omettre certaines de leurs données dans leurs analyses.
Pour éviter ce problème, certains experts ont suggéré la création d'un nouveau standard selon lequel les chercheurs
devraient inclure une ligne dans leur article annonçant explicitement toute donnée exclue et tous les aspects
de leurs analyses.
Si l'écriture de cette remarque devient une pratique courante, alors l'absence de cette phrase pourrait-être
un avertissement.
Mais même si les chercheurs incluent toutes leurs données, ils peuvent juste mal interpréter
leurs données.
Parce que... les analyses de données incluent des mathématiques. Parfois,

French: 
beaucoup de mathématiques. Mais les chercheurs, dans de nombreux domaines, comme la psychologie ou la biologie
ne sont pas forcément très doués dans toutes ces mathématiques.
Les cours sur les méthodes de statistiques avancées ne sont pas souvent nécessaires pour obtenir son diplôme
en biologie.
Alors parfois, l'analyse des données faite par les chercheurs est juste... fausse.
Et les relecteurs n'y font pas toujours attention, parce qu'ils n'ont pas été formés
à ces méthodes non plus.
Puis, il y a les "valeurs-P"
Le terme "valeur -P" est l'abréviation de "valeurs probabilistes" et il est souvent utilisé comme
raccourci pour prouver la véracité des résultats scientifiques.
Pour calculer une valeur-P, vous devez d'abord déterminer l'opposé de ce que vous souhaitez prouver.
Donc si vous avez testé un traitement contre le cancer et que vous avez découvert qu'il tue les cellules cancéreuses,
vous devez commencer par supposer que le traitement ne tue pas les cellules cancéreuses
vous devez commencer par supposer que le traitement ne tue pas les cellules cancéreuses
pour calculer la valeur-P.
Puis, vous calculez les probabilités que la cellule cancéreuse meure quoi qu'il arrive. Cela sera votre
valeur-P.
En d'autres termes, une valeur-P vous donne la probabilité que les résultats d'une expérience soient une totale
coincidence.
Donc pour le traitement que vous testez, une valeur-P inférieure à 0.01 signifierait qu'il y a
moins d'1% de chances que les cellules cancéreuses meurent si le traitement ne
fonctionne pas.

English: 
Sometimes a lot of math.
But researchers in a lot of fields -- like
psychology and biology -- aren’t necessarily
trained in all that math.
You don’t always need to take courses in
advanced statistical methods to get a degree
in biology.
So, sometimes, the data analysis that researchers
do is just … wrong.
And the peer reviewers don’t always catch
it, because they haven’t been trained in
those methods, either.
Then … there are p-values.
The term p-value is short for probability
value, and it’s often used as a kind of
shorthand for the significance of scientific
findings.
To calculate a p-value, you first assume the
/opposite/ of what you want to prove.
So if you were testing a cancer drug, for
instance, and you found that it kills cancer
cells.
To calculate the p-value for your study, you’d
start by assuming that the drug /doesn’t/
kill cancer cells.
Then, you’d calculate the odds that the
cancer cells would die anyway.
That would be your p-value.
In other words, a p-value tells you the probability
that the results of an experiment were a total
coincidence.
So for that cancer drug you’re testing,
a p-value of less than .01 would mean that
there’s a less than 1% chance the cancer
cells would die even if the drug didn’t
kill cancer cells.

Portuguese: 
As vezes, muita matemática. Mas pesquisadores em muitos campos de atuação -- como psicologia e biologia
-- não são necessariamente treinados em toda essa matemática.
Você nem sempre precisa ter aulas em métodos estatísticos avançados para conseguir um diploma
em biologia.
Então, as vezes, a análise de dados que pesquisadores fazem é apenas... errada.
E os críticos nem sempre percebem, porque eles também não foram
treinados nesses métodos.
Também... Há valores-P.
O termo valor-P é a abreviação de valor de probabilidade, e é frequentemente usado como um tipo
de taquigrafia para a significância de um achado científico.
Para calcular o valor-P, primeiro você assume o oposto do que você quer provar.
Então se você estivesse testando uma droga para câncer, por exemplo, e você descobrisse que ela mata células cancerígenas.
Então se você estivesse testando uma droga para câncer, por exemplo, e você descobrisse que ela mata células cancerígenas.
Para calcular o valor-P para seu estudo, você começaria assumindo que a droga não
mata células cancerígenas.
Em seguida, você calcularia as chances das células cancerígenas morrerem de qualquer forma. Esse
seria seu valor-P.
Em outras palavras, um valor-P te diz a probabilidade do resultado de um experimento ser uma total
coincidência.
Então para a droga contra o câncer que você estivesse testando, um valor-P de menos de 0,1 significaria que
há menos de 1% de chance de que as células cancerígenas morreriam mesmo se a droga
não matasse células cancerígenas.

French: 
Généralement, le standard pour que les études valent le coup d'être publié est d'avoir une valeur-P inférieure à
0.05, c'est-à-dire une chance de 5% que les cellules cancéreuses meurent
par coïncidence.
5%, c'est une 1 chance sur 20, ce qui est assez faible.
Et de nombreuses études sont publiées avec une valeur-P à peine inférieure à 0.05  .
Il y a des chances pour que une minorité d'entre elles, les résultats soient une coïncidence et que les
découvertes soient fausses.
C'est pourquoi de nombreuses personnes défendent le fait que les valeurs-P ne sont pas une bonne référence pour évaluer la véracité
des résultats.
Ils suggèrent de mettre l'accent sur l'ampleur de l'effet qui vous dit
à quel point le changement était important plutôt que de seulement prouver l'existence d'un changement.
 
Ils suggèrent également un plus grand partage des données, y compris les données non publiées, ce qui devient de plus en plus
populaire et accepté.
Donc oui, il y a une crise de réplicabilité, et cela met en avant de nombreux problèmes
avec les recherches scientifiques et les processus de publication.
Mais les scientifiques font leur maximum pour le résoudre.
Merci d'avoir regardé cet épisode de SciShow qui vous a été présenté grâce aux contributeurs ("Patrons")
sur Patreon. Si vous souhaitez soutenir cette émission, rendez vous sur Patreon.com/SciShow et

Portuguese: 
Geralmente, o padrão para determinar se vale a pena publicar determinado estudo é um valor-P menor
que 0,5 -- o que seria traduzido como menos de 5% de chance das células cancerígenas morrerem
por coincidência.
5% é uma chance em vinte, o que é bem pequeno.
E há muitos estudos que conseguem ser publicados com um valor-P pouco abaixo de 0,5.
As chances são de que pelo menos para alguns, os resultados serão uma coincidência -- e o
achado estará errado.
Esse é o porquê de muita gente argumentar que valores-P não são um bom fator para determinar se resultados são significantes.
Esse é o porquê de muita gente argumentar que valores-P não são um bom fator para determinar se resultados são significantes.
Ao invés disso, eles sugerem colocar mais ênfase em coisas como o tamanho do efeito, o que diz
mais do que se um experimento produz algum tipo de mudança. Diz o quão
grande a mudança é.
Eles também sugerem maior compartilhamento de dados -- incluíndo dados não publicados -- algo que gradualmente
está se tornando mais popular e aceitável.
Pois é, sim -- existe uma crise de replicação, e isso está realçando muitos problemas
com as pesquisas científicas e processos de publicação.
Mas cientistas estão também fazendo o melhor para resolvê-los.
Obrigado por assistir este episódio de SciShow, que foi trazido até vocês pelos nossos patrocinadores
no Patreon. Se você quiser ajudar este show, vá para patreon.com/scishow. E

English: 
Usually, the standard for whether results
are worth publishing is a p-value of less
than .05 -- which would translate to less
than a 5% chance of the cancer cells dying
by coincidence.
5% is a 1 in 20 chance, which is pretty low.
And there are /lots/ of studies that get published
with p-values just under .05.
Odds are that for at least a few of them,
the results will be a coincidence -- and the
findings will be wrong.
That’s why a lot of people argue that p-values
aren’t a good metric for whether results
are significant.
Instead, they suggest placing more emphasis
on things like effect size, which tells you
more than just whether an experiment produced
some kind of change.
It tells you how /big/ the change was.
They also suggest more sharing of data -- including
unpublished data -- something that’s gradually
becoming more popular and accepted.
So, yes -- there is a replication crisis,
and it’s been highlighting a lot of problems
with the scientific research and publication
process.
But scientists are also doing their best to
solve it.
Thanks for watching this episode of SciShow,
which was brought to you by our patrons on
Patreon.
If you want to help support this show, just
go to patreon.com/scishow.

English: 
And don’t forget to go to youtube.com/scishow
and subscribe!

French: 
n'oubliez pas d'aller sur Youtube.com/SciShow et de vous abonner !

Portuguese: 
não se esqueça de ir em youtube.com/scishow e se inscrever!
