
Arabic: 
كراش كورس الفلسفة مقدمة من سكوير سبيس.
سكوير سبيس: شارك شغفك مع العالم.
حسنٌا، دعونا نتحدث بجدية، أنا قلق نوعًا ما.
أظن بأن أخي جون قد يكون روبوتًا
أعلم بأن الأمر يبدو سخيفًا.  فهو يبدو كإنسان تقريبًا.
ويتصرف كالبشر في معظم الوقت
لكن كيف يمكنني التأكد من أنه بشري 100% كما يبدو؟
على الأقل، بدون الحاجة لأن نلقي نظرة مقربة لما يحدث بداخله، في رأسه، جسمه وكيفية عمله؟
مع الأخذ في الإعتبار أنني الأخ الأصغر لجون
فبحسب معرفتي، فمن الممكن أن أبي وأمي قد جلباه إلى المنزل من راديو شاك -سلسلة أمريكية من مخازن الالكترونيات اللاسلكية- وليس من المستشفى
إذا، كيف يمكنني التأكد مما إذا كان أخي جون بشري أو مجرد آلة ذكية؟
موسيقى الشارة
تكلمنا في الأسابيع الماضية عن ماذا يعني أن تكون إنسانًا؟

Portuguese: 
Crash Course Philosophy é oferecido por Squarespace
Squarespace: compartilhe sua paixão com o mundo
Ok, caras, papo sério. Ahh, estou meio preocupado.
Eu acho que meu irmão John possa ser um robô
Eu sei que isso soá ridículo.  Ele se parece com um humano.  Praticamente
E ele age como humano. Na maioria das vezes.
Mas como eu posso ter 100% de certeza de que ele é o que aparenta ser?
Pelo menos, sem olhar como ele é por dentro - de sua cabeça, seu corpo, seus funcionamentos internos.
Tenha isso em mente, eu sou o irmão mais novo.
Até onde eu sei, nossos pais trouxeram ele da Radio Shack, não do hospital.
Então. Como eu posso dizer se meu irmão John Green é um humano, ou apenas uma máquina realmente inteligente.
[Música]
À algumas semanas atrás, falamos o que significa ser uma pessoa.

Dutch: 
Crash Course Philosophy wordt je aangeboden door Squarespace.
Squarespace: deel je passie met de wereld
Okay, jongens: uhh...Ik ben nogal bezorgd.
Ik denk dat mijn broer John een robot is.
Ik weet het: klinkt belachelijk. Hij ziet er uit als een mens. Zo ongeveer.
En hij gedraagt zich als een mens. Meestal dan.
Maar hoe weet ik echt-100-procent-zeker dat hij is wat hij lijkt?
Tenminste, zonder echt dichtbij te kijken wat er binnen in hem zit - in zijn hoofd, zijn lichaam, de hele machinerie?
Let wel, ik ben de jongste broer.
Misschien hebben Mama en Papa hem wel meegenomen uit de electronica zaak, in plaats van het ziekenhuis.
Dus. Hoe kan ik weten of mijn broer John Green een mens is, of gewoon een hele intelligente machine?
[Muziek]
Een paar weken geleden hadden we het over wat het betekent om een persoon te zijn.

Chinese: 
哲学速成课由Squarespace为您提供。
Squarespace：与世界分享你的热情。
嗨，伙计们，不开玩笑。额，我现在有些担心。
我觉得我哥哥约翰可能是个机器人。
我知道这听起来很荒谬。他长得很像人。非常像。
而他的行为也像个人，在大多数时候。
但我如何能百分百确定，他就和他外表一样呢？
至少，我没有看过他的内部——脑子、身体以及内部运作是怎样的？
而且要知道，我是弟弟。
我只看到过爸妈从RadioShack把约翰带回家，而非从医院里。
所以，我如何知道我哥哥约翰·格林究竟是个人，还是说只是台智能机器？
主题音乐
几个礼拜前，我们讨论了成为一个人意味着什么。

English: 
Crash Course Philosophy is brought to you
by Squarespace.
Squarespace: share your passion with the world
Ok, guys, real talk.
Uhh, I’m kinda worried.
I think my brother John might be a robot.
I know, it sounds ridiculous.
He looks like a human. Pretty much.
And he acts like a human.
Most of the time.
But how could I really-100-percent-for-sure
know that he is what he looks like?
At least, without getting a close look at what’s inside him – in his head, his body, his inner workings?
And keep in mind, I’m the younger brother.
For all I know, Mom and Dad brought him home
from Radio Shack, not the hospital.
So. How can I tell whether my brother John Green
is a human, or just a really intelligent machine?
[Theme Music]
A couple of weeks ago, we talked about what
it means to be a person.

Estonian: 
Crash Course filosoofia toob teieni Squarespace.
Squarespace: jaga oma kirge mailmaga
Olgu kutid, tõsine jutt. Ma olen pisut mures.
Ma arvan, et minu vend John võib olla robot.
Ma tean, see kõlab totralt. Ta näeb inimese moodi välja. Enam vähem.
Ja ta käitub nagu inimene. Enamasti.
Aga kuidas ma saaks olla täiesti 100% kindel, et ta on see mille moodi ta välja näeb?
Vähemasti vaatamata lähemalt seda, mis tema sees on, tema pead, keha, tema seesmisi töömehhanisme?
Ja pea silmas, et mina olen noorem vend.
On täiesti võimalik, et ema ja isa tõid ta koju elektroonikapoest, mitte sünnitusmajast.
Seega. Kuidas ma saaks kindel olla, et minu vend John Green on inimene, mitte lihtsalt väga tark masin?
[Tunnusmuusika]
Paari nädala eest rääkisime me sellest, mida tähendab olla isik.

Spanish: 
Crash Course  Filosofía es traído a ti por Squarespace.
Squarespace: comparte tu pasión con el mundo
Ok, chicos, hablemos en serio.
Uhh, estoy un poco preocupado.
Creo que mi hermano John podría ser un robot.
Lo sé, suena ridículo.
Se ve como un ser humano. Más o menos.
Y actúa como un ser humano.
La mayoría del tiempo.
Pero ¿cómo podría estar 100% seguro
de que es lo que parece?
Por lo menos, sin tener que ver en su interior, en su cabeza, su cuerpo, su funcionamiento interno.
Y ten en cuenta que soy el hermano menor.
Por lo que sé, mamá y papá pudieron traerlo a casa de Radioshack, no del hospital.
Así que. ¿Cómo puedo saber si mi hermano John Green es un ser humano, o simplemente una máquina muy inteligente?
 
Hace un par de semanas hablamos de lo
que significa ser una persona.

French: 
Cet épisode est présenté par Squarespace .
Squarespace: partage ta passion avec le monde
Ok, les gars, honnêtement. Uhh, Je suis un peu inquiet.
Je pense que mon frère John peut être un robot.
Je sais que ça semble ridicule. Il parait humain. Plutôt.
Et il agit comme un humain. La majorité du temps.
Mais comment pourrais je être sure à cent pour cent qu'il est vraiment comme il parait?
Au moins, sans regarder au plus près à ce qu'il y a à l'intérieur de lui - dans sa tête, son corps, son fonctionnement interne ?
Et garder en tête que je suis le frère cadet
Pour autant que je sache, maman et papa l'ont rapporter d'un Radio Shack, et pas d'un hôpital.
Alors. Comment pourrais je confirmer que mon frère John Green est un humain, ou bien une machine très intelligente ?
[Musique du thème]
Il y a deux semaines, nous avons parlé de la signification d'être une personne.

Portuguese: 
Mas um assunto que precisamos explorar um pouco mais é se um ser sem vida, como um robô, também pode ser uma pessoa.
Isso não é importante apenas para escritores de ficção cientifica.
Essa questão importa, porque a tecnologia se desenvolve todo o tempo,
e precisamos entender como trataremos novas pessoas em potencial,
se terminarmos criando seres que  decidimos alcançar o patamar de pessoalidade
Estou falando sobre - robôs, androides, replicantes, cilônios; como quiser chamá-los.
se você lê e assiste certas coisas, você sabe de quem estou falando.
Agora, você pode estar pensando: Nós ja não temos inteligência artificial? Tipo, no meu telefone?
É, sim. Mas o tipo de "AI" que usamos para enviar mensagens, correções de provas ou emails,
e mapear nosso caminho pro trabalho é muito fraco no sentido técnico.
Uma máquina ou sistema que imita alguns aspectos da inteligencia humana é conhecida como AI Fraca.
Siri é um bom exemplo, mas tecnologia similar existe à muito mais tempo.
Auto-corretores, verificadores ortográficos, até mesmo calculadoras são capazes de imitar parte da inteligência humana.
AI fraca é caracterizada pela sua faixa relativamente estreita de habilidades semelhantes ao pensamento.
AI forte, por outro lado, atualmente pensa como nós.

Dutch: 
Maar een onderwerp dat we nog een beetje beter moeten uitvogelen is of het mogelijk is dat een niet-levend wezen, zoals een robot, ook een persoon kan zijn.
Dit is niet alleen een zorg voor science fiction schrijvers.
Dit is van belang, want technology wordt alsmaar beter.
En we moeten ons bedenken hoe we met mogelijke nieuwe personen omgaan,
als het ons lukt om wezens te maken waarvan we vinden dat ze personen zijn.
Ik heb het over - robots, androïdes, replicants, cylons...hoe je ze ook noemt.
Als je de juiste dingen leest en kijkt, dan weet je over wie ik het heb.
Misschien denk je: hebben we niet al kunstmatige intelligentie? Op mijn telefoon bijvoorbeeld?
nou..ja. Maar het type AI dat we gebruiken om onze sms-jes te verzenden, of onze emails te corrigeren,
en onze trips te plannen naar het werk is nogal zwak in de technische zin.
Een machine of systeem dat een aspect van menselijke intelligentie kopieert staat bekend als zwakke AI.
Siri is een goed voorbeeld, maar vergelijkbare technologie is al veel langer aanwezig.
Auto-correct, de spelling checker, en zelfs ouderwetse rekenmachines zijn in staat om delen van de menselijke intelligentie na te doen.
Zwakke AI staat bekend om zijn relatief kleine vertegenwoordiging van cognitieve vaardigheden.
Sterke AI, aan de andere kant, is een machine of systeem dat echt zoals ons nadenkt.

Chinese: 
但还有个主题需要深入探讨，那就是一个非生物的物体，像是机器人，能否成为一个人。
这不仅只有科幻作家关心。
它很重要，因为技术的发展一日千里，
如果我们最终创造出来了具有人格性的东西的话。
我们就需要知道将要如何对待潜在的新的人。
我这里讨论的包括——机器人、人形机器、复制人、赛隆人等等。
如果你能正确阅读理解，你就知道我说的是什么。
现在，你也许会问：我们不是已经有人工智能了吗？例如，智能手机？
好吧，是的。但我们用于发送短信、校对邮件
和上班带路的AI，在技术上来说是很弱的。
这种模仿部分人类智能的机器或系统，被称作弱AI。
Siri就是一例，但类似的技术范围极广。
自动更正、拼写检查、甚至是老式的计算器，都模仿了部分人类智能。
弱AI拥有的近似思考能力，范围相对狭窄。
而强AI，则是确实像我们一样思考的机器或系统。

English: 
But a subject that we need to explore a little better is whether a non-living being, like a robot, could be a person, too.
This isn’t just a concern for science fiction
writers.
This issue matters, because technology is
getting better all the time,
and we need to figure out how we're going
to treat potential new persons,
if we end up creating beings that we decide
meet the threshold of personhood.
I'm talking about – robots, androids, replicants,
cylons whatever you call ‘em.
If you read and watch the right stuff, you
know who I’m talking about.
Now, you might be thinking: Don't we have artificial intelligence already? Like, on my phone?
Well, yeah. But the kind of AI that we use to send our texts, proof-read our emails,
and plot our commutes to work is pretty weak
in the technical sense.
A machine or system that mimics some aspect
of human intelligence is known as Weak AI.
Siri is a good example, but similar technology
has been around a lot longer than that.
Auto-correct, spell-check, even old school calculators are capable of mimicking portions of human intelligence.
Weak AI is characterized by its relatively
narrow range of thought-like abilities.
Strong AI, on the other hand, is a machine
or system that actually thinks like us.

French: 
Mais le sujet qui a besoin d'être mieux explorer est si un être qui n'est pas vivant, comme un robot, peut être une personne, aussi.
Cela ne concerne pas seulement les écrivains de science fiction.
Ce problème est important parce que la technologie est en progrès tout le temps,
et nous avons besoins de savoir comment nous allons traité les nouvelles personnes potentielles,
si on finit par créer des êtres que nous avons décidé qu'ils satisfassent le seuil de la personnalité.
Je parle de - robots, androids, réplicants, cylons peu importe comment vous les appelez.
si vous lisez et regardez les bons trucs, vous savez de quoi je parle.
Maintenant, vous pouvez vous demander: Nous avons déjà l'intelligence artificielle? Comme sur mon portable?
Bon, oui. Mais le genre de IA que nous utilisons pour envoyer des texts, relire nos e-mails,
et tracer nos déplacements vers notre travail est assez faible dans le sens technique.
Une machine ou un système qui imite quelque aspects de l'intelligence humaine est connu sous IA faible.
Siri est un bon example, mais des technologies similaires ont existé bien avant ça.
La correction automatique, la vérification de l'orthographe, même les vieilles calculatrices sont capables d'imiter des portions de l'intelligence humaine
l'IA faible est caractérisé par sa gamme relativement étroite d'habilités similaire à la pensée.
L'IA forte, d'autre part, est une machine ou un système qui pense réellement comme nous.

Spanish: 
Pero un tema que tenemos que explorar un poco mejor es si un ser no vivo, como un robot, puede ser una persona también.
Esto no es sólo una preocupación para los escritores de ciencia ficción.
Este problema importa, ya que la tecnología sigue mejorando todo el tiempo,
y necesitamos averiguar cómo vamos
para tratar a estas posibles nuevas personas,
si terminamos creando seres que rozan con el umbral de lo que es una persona.
Estoy hablando de robots, androides, replicantes, cylons, como sea que los llames.
Si lees y ves el material adecuado, sabes
de quién estoy hablando.
Ahora, puedes estar pensando: ¿No tenemos ya inteligencia artificial? ¿Como la de mi teléfono?
Bueno sí. Pero el tipo de inteligencia artificial (IA) que utilizamos para enviar mensajes, leer nuestro correo electrónico,
y trazar nuestro trayecto para ir al trabajo es bastante débil en el sentido técnico.
Una máquina o sistema que imita algunos aspectos de la inteligencia humana que se conoce como IA débil.
Siri es un buen ejemplo, pero tecnología similar ha existido mucho más tiempo que eso.
El auto-corrector, el corrector ortográfico, incluso las calculadoras de la vieja escuela son capaces de imitar partes de la inteligencia humana.
La IA débil se caracteriza por su rango relativamente estrecho de habilidades de pensamiento similar.
La IA fuerte por otro lado, es una máquina
o sistema que realmente piensa como nosotros.

Estonian: 
Aga teema, mida me peame veel pisut rohkem avastama on, kas ka elutu olend, nagu robot, võib isik olla.
See pole ainult ulmekirjanduse kirjanike huviala.
See probleem loeb, kuna tehnoloogia saab iga hetkega paremaks,
ja ma peame välja mõtlema kuidas me suhtume potentsiaalsetesse uutesse isikutesse,
kui me jõuame olendite loomiseni, mis jõuavad isikuks olemise piiri juurde.
Ma räägin siinkohal robotitest, androididest, replikantidest, cylonitest, kuidas sa neid ka ei kutsuks.
Kui sa loed ja vaatad õigeid asju, siis sa tead kellest ma räägin.
Siinkohal võid sa mõelda: kas meil pole mitte juba tehisintellekti? Näiteks minu telefonis?
Nojah. Aga TI, mida me kasutame sõnumite saatmiseks ja emailide kontroll-lugemiseks,
ja oma töölesõidu planeerimiseks on tehnilises mõttes päris nõrk.
Masin või süsteem, mis matkib mingit osa inimintellektist kannab nimetust nõrk TI.
Siri on hea näide, aga sarnane tehnoloogia on liikvel olnud sellest palju kauem.
Automaatne tõlge, õigekeelsuskontroll, isegi vana kooli kalkulaatorid matkivad osasid inimese intellektist.
Nõrk TI on iseloomustatud selle küllaltki kitsa mõtte-laadsete võimete ulatuse poolest.
Tugev TI seevastu, on masin või süsteem, mis tõesti mõtleb nagu meie.

Arabic: 
لكن ما نريد اكتشافه بشكل أوسع هو ما إذا كان بوسعنا اعتبار كائن غير حي كالروبوت إنسانًا أيضًا؟
هذا لا يثير فقط اهتمام كتاب الخيال العلمي.
بل هي قضية مهمة للجميع بحكم التطور المستمر للتقنية
ونحن نحتاج إلى معرفة كيفية التعامل مع الأشخاص الجدد المحتملين
إذا انتهى بنا المطاف إلى صنع كائناتٍ و قررنا أنها تلبي المتطلبات التي ترشحها لتكون انسانًا.
أتكلم عن الروبوت، أو الإنسان الآلي أو أي اسم تطلقه عليه.
إذا كنت تقرأ أو تشاهد مايتعلق بالخيال العلمي فستعرف عن ماذا أتحدث.
ربما تفكر الآن:"ألا نمتلك ذكاء صناعي حاليًا؟" كالتي في هاتفي؟"
حسنًأ، نعم، لكن ما نستخدمه  لإرسال الرسائل النصية، أو تصحيح رسائل البريد الإلكتروني
أو تحديد طريق الذهاب إلى العمل، يعتبر ضعيفًا جدًأ بالمعنى التقني.
الآلة أو النظام التي تقلد بعضًا من جوانب الذكاء البشري تعرف بالذكاء الاصطناعي الضعيف.
سيري هي مثال جيد، لكن تقنية مشابهة لها وُجدت منذ فترة طويلة.
المصحح التلقائي، المحرر الإملائي، وحتى الحاسبات التقليدية تستطيع محاكاة أجزاء من الذكاء البشري
يتميز الذكاء الاصطناعي الضعيف بنطاق ضيق نسبيًا من القدرات العقلية
في الجهة الأخرى، فإن الذكاء الاصطناعي القوي عبارة عن آلة أو نظام يفكر مثلنا نحن البشر.

Arabic: 
بغض النظر عما يمكن لأدمغتنا فعله، فإن الذكاء الاصطناعي القوي هو نظام غير عضوي بمقدوره آداء نفس وظيفة الدماغ.
بينما استخدمنا الذكاء الاصطناعي الضعيف لمدة طويلة من الزمن وطورناه ليصبح أقوى،
فلم نتمكن إلى هذه اللحظة من تصميم نظام بذكاء اصطناعي قوي.
لكن ما الذي نعنيه بنظام لديه ذكاء اصطناعي قوي؟
وهل يمكننا معرفة أن هذا الشيء حدث؟
بالعودة إلى عام 1950، فكر عالم الرياضيات آلان تورينغ في هذا السؤال.
وابتكر اختبارَا سمي - باختبار تورينغ - الذي اعتقد بأنه قادر على اختبار قدرة الآلة على التفكير مثلنا
كان وصف تورينغ لهذا الاختبار متوافق مع عصره، عندما لم يكن هناك حواسيب حقيقية في ذلك الوقت.
لكن لو وصف تورينغ هذا الاختبار في الوقت الحالي فإنه على الأرجح سيصبح كالتالي:
تقوم بمحادثة شخصين عبر الرسائل النصية القصيرة.
الأول إنسان والآخر عبارة عن حاسوب أو آلة تمتلك ذكاءًا اصطناعيًا
بينما لا تعرف أي منهما هو الإنسان الحقيقي.
ربما تسأل كلا المحاورين أي سؤال تريد،
ويمتلك الاثنان حرية الإجابة بالطريقة التي تعجبهما، - باستطاعتهما الكذب أيضًا-
هل تظن أن بإمكانك التفريق بينهما؟
كيف ستثبت ذلك؟ ما هي الأسئلة التي ستسألها للتأكد
وما هي نوعية الأجوبة التي ستتوقعها منهما؟
الآلة التي برمجت بتعقيد كافٍ يجب أن تستطيع خداعك لتظن بأنك تتحدث مع شخص حقيقي آخر وليس مع آلة.

French: 
Quelque soit ce que notre cerveau fait, l'IA forte est un système inorganique qui fait la meme chose.
Quant à l'IA faible, elle existe depuis longtemps, et continu à devenir plus forte
nous avons encore besoin de concevoir un système avec une IA forte.
Mais qu'est ce que ça veut dire pour quelque chose d'avoir une IA forte
Est ce qu'on va savoir quand cela va avoir lieu ?
En 1950, le mathématicien britannique Alan Turing pensait un cette question.
Et il a conçu un test - appeler le Turing Test - qu'il pensait pouvoir démontrer quand une machine développe la capacité de penser comme nous.
La description de Turing du test était un produit de son temps - un temps où il n'y avait pratiquement pas d'ordinateurs, pour en parler.
Mais si Turing le décrit aujourd'hui, ça ressemblerait probablement à ça :
Vous êtes dans une conversation, via text, avec deux individus.
L'un est un humain, l'autre est un ordinateur ou une IA d'un certain genre.
Et vous ne savez pas qui est qui.
Vous pouvez demander à vos deux interlocuteurs tout ce que vous voulez,
et ils sont libre de vous répondre comme ils le souhaitent - ils peuvent même mentir.
Est ce que vous pensez que vous êtes capable de distinguer lequel est humain ?
Comment les reconnaître ? Quels sorte de questions vous allez posé ?
Et quels genre de réponse vous vous attendrez en retour ?
Une machine avec une programmation suffisamment complexe est capable de vous tromper en vous faisant croire que vous conversez avec un autre humain.

Portuguese: 
O que quer que nosso cérebro fassa, uma AI forte faz a mesma coisa.
Enquanto AI fracas existem ha bastante tempo, cada vez melhores,
ainda temos que projetar um sistema com AI forte.
Mas o que significa possuir uma AI forte
Nós ao menos saberíamos quando acontecesse?
Em 1950, o matemático britânico Alan Turing indagou-se sobre a mesma questão
Ele idealizou um teste - chamado Teste de Turing - que pensou ser capaz de demonstrar quando uma máquina desenvolvesse a habilidade de pensar como nós.
A sua descrição do teste foi produto de seu tempo - um tempo onde não existia computadores para se conversar.
Mas se Turing estivesse elaborando isto nos dias de hoje, sairia algo tipo assim:
Você está em uma conversa, via mensagens de texto, com dois indivíduos.
Um é humano, e o outro é um computador ou algum tipo de AI
E você não é avisado de qual é qual
Você perguntar aos seus interlocutores o que quiser,
e eles são livres para responder o que quiserem - eles podem até mentir,
Você acha que seria capaz de identificar qual deles é humano?
Como poderia dizer? que tipo de questões faria?
E que tipo de respostas esperaria?
Uma máquina com programação complexa o suficiente para te fazer pensar que está conversando com outro ser humano.

English: 
Whatever it is that our brains do, strong AI is an inorganic system that does the same thing.
While weak AI has been around for a long time,
and keeps getting stronger,
we have yet to design a system with strong
AI.
But what would it mean for something to have
strong AI
Would we even know when it happened?
Way back in 1950, British mathematician Alan
Turing was thinking about this very question.
And he devised a test – called the Turing Test – that he thought would be able to demonstrate when a machine had developed the ability to think like us.
Turing’s description of the test was a product of its time – a time in which there were really no computers, to speak of.
But if Turing were describing it today, it
would probably go something like this:
You’re having a conversation, via text,
with two individuals.
One is a human, and the other is a computer
or AI of some kind.
And you aren’t told which is which.
You may ask both of your interlocutors anything
you would like,
and they are free to answer however they like
– they can even lie.
Do you think you’d be able to tell which
one was the human?
How would you tell?
What sort of questions would you ask?
And what kind of answers would you expect
back?
A machine with complex enough programming ought to be able to fool you into believing you’re conversing with another human.

Estonian: 
Mis iganes see on mida meie ajud teevad, tugev TI on mitte-orgaaniline süsteem, mis teeb sama.
Kui nõrk TI on olnud olemas kaua aega ja saab aina tugevamaks,
siis tugeva tehisintellektiga süsteemi veel loodud ei ole.
Aga mida see tähendaks, et millelgi on tugev TI?
Kas me isegi teaks, millal see juhtus?
Ammu, 1950ndal aastal mõtles briti matemaatik Alan Turing just selle küsimuse peale.
Ja ta lõi testi, Turingi testi, mida ta leidis olevat suuteline näitama, millal on masin omandanud võime mõelda nagu meie.
Turingi kirjeldus testist oli oma aja vili, ajastust mil polnud päriselt ühtki arvutit olemas.
Aga kui Turing kirjeldaks seda täna, siis see võiks välja näha umbes nii:
Sa pead vestlust, läbi teksti, kahe indiviidiga.
Üks on inimene ja teine mingit sorti tehisintellekt.
Sulle pole öeldud kumb on kumb.
Sa võid kummaltki vestlejalt küsida, ükskõik mida sa tahad,
ja nemad on vabad vastama, kuidas iganes nad tahavad, ka valetama.
Kas sa oleks suuteline eristama kumb on inimene?
Kuidas sa aru saaks? Milliseid küsimusi sa küsiks?
Ja milliseid vastuseid sa ootaks vastu saada?
Masin, mis on piisavalt keerukas peaks olema suuteline sind veenma, et sa vastled teise inimesega.

Spanish: 
Sea lo que sea que nuestros cerebros hacen, la IA fuerte es un sistema inorgánico que hace lo mismo.
Mientras la IA débil ha existido por mucho tiempo,
y sigue volviéndose cada vez más fuerte,
todavía tenemos que diseñar un sistema con IA fuerte.
¿Pero qué significaría para algo contar con inteligencia artificial fuerte?
¿Podríamos siquiera saber cuándo ocurrió?
Por el año 1950, el matemático británico Alan Turing  pensaba en esta pregunta,
ideó una prueba, llamada la prueba de Turing, que él pensaba que sería capaz de demostrar cuando una máquina hubiera desarrollado la habilidad de pensar como nosotros.
La descripción de Turing sobre la prueba  era un producto de su tiempo, un tiempo en el que no había computadoras de las que hablar.
Pero si Turing la describiera hoy,
probablemente sería algo parecido a esto:
Estás teniendo una conversación a través de mensajes de texto con dos individuos.
Uno de ellos es  humano y el otro es una computadora o algún tipo de inteligencia artificial.
Y no sabes cuál es cuál.
Puedes preguntarle a ambos cualquier cosa que desees
y ellos son libres de responder a su gusto, pueden incluso mentir.
¿Crees ser capaz de decir cuál era el ser humano?
¿Cómo lo sabrías?
¿Qué tipo de preguntas le harías?
¿Y qué tipo de respuestas esperarías?
Una máquina con programación suficientemente compleja debería ser capaz de engañarte, haciéndote creer que estás conversando con otro ser humano.

Chinese: 
不管我们的大脑做什么，强AI的无机系统都能完成相同的事。
尽管弱AI历史悠久，而且还在不断增强，
但强AI则还在设计中。
但拥有强AI究竟是什么意思呢？
我们如何知道强AI诞生了？
回到1950年，不列颠数学家艾伦·图灵也在思考这个问题。
他设计出了一个测验，叫图灵测验，他认为这个测验能显示，一台机器何时有了如我们一般的思考能力。
图灵对测验的描述囿于时代，当时还没有什么电脑能拿来讨论。
但如果图灵在今天描述这个测验，那也许会是这样：
你正在通过短信，和两个东西对话。
一个是人，而另一个是电脑或AI，诸如此类。
而你不知道哪个是哪个。
你可以向这两个问所有你想问的事情，
他们可以任意回答，说谎也无妨。
你认为，你能够分辨哪个是人吗？
如何分辨？你会问哪些问题？
而你又期待着怎样的答案？
一台程序足够复杂的机器，也许能够让你上当，觉得你在和人说话。

Dutch: 
Wat onze hersenen ook doen, sterke AI is een anorganisch systeem dat het zelfde doet.
Hoewel zwakke AI als lang bestaat, en steeds sterker wordt,
moeten we nog een systeem zien te ontwerpen met sterke AI
Maar wat betekent het om sterke AI te hebben?
Zouden we het eigenlijk wel weten wanneer het gebeurde?
In 1950 dacht de Britse wiskundige Alan Turing ook na over deze vraag.
Hij bedacht een test - De Turing Test - die zou demonstreren wanneer een machine het zelfde denkvermogen als ons had ontwikkeld.
Turing's omschrijving van de test weerspiegelde de tijd waarin hij leefde - een tijd waarin er nauwelijks computers waren.
Maar als Turing het vandaag de dag zou beschrijven zou het waarschijnlijk als volgt klinken:
Je bent in gesprek, via SMS, met twee individuen.
Een van hen is menselijk en de ander is een computer of AI.
Er word niet verteld wie wie is.
Je mag beide gesprekspartners alles vragen,
en zij mogen antwoorden zoals zij willen - ze mogen zelfs liegen.
Denk je dat jij zou kunnen zeggen wie van hen de mens is?
Hoe zou je het bepalen? Wat voor vragen zou je stellen?
En wat voor antwoorden zou je terug verwachten?
Een machine die complex genoeg geprogrammeerd is zou in staat moeten zijn om je overtuigen dat je met een ander mens praat.

Dutch: 
En Turing zei, als een machine een mens kan laten geloven dat het een mens is, dan heeft het sterke AI.
Dus in zijn opzicht, als iets kan denken zoals wij, betekent dat alleen maar dat het in staat is om ons te overtuigen dat het denkt zoals wij.
Als wij het verschil niet kunnen bepalen is er technisch geen verschil.
Het is een puur op gedrag gebaseerde test.
En als je er over nadenkt, is gedrag niet de standaard waar we elkaar op beoordelen?
Ik bedoel, Ik zou een robot kunnen zijn!
en het zelfde geldt voor deze mensen die me helpen met de aflevering.
De reden dat ik niet denk dat ik werk met een aantal androïden is dat ze zich gedragen zoals ik verwacht dat mensen zich gedragen.
Tenminste, meestal.
En als iemand gedrag laat zijn dat op dat van ons lijkt
- dingen laat zien zoals intentionaliteit en begrip -
dan nemen we aan dat ze intentionaliteit en begrip hebben.
Nu, spoel een paar decennia vooruit, and ontmoet hedendaags Amerikaans filosoof William Lycan.
Hij is het met Turing eens over veel punten, en heeft het voordeel dat hij in een tijd leeft waarin kunstmatige intelligentie waanzinnig geavanceerd is.
Maar Lycan erkent dat veel mensen nog steeds denken dat je een persoon-achtige robot kan maken,
maar dat je nooit echt een robot kan maken die een persoon is.

Estonian: 
Ja Turing ütles, et kui masin suudab veenda inimest, et ta on inimene, siis tal on tugev TI.
selle vaate järgi, meie moodi mõtlemine on, et suuetakse meid veenda, et on tegu ühega meie seast.
Kui me aru ei saa, siis tõesti pole migit vahet.
See on rangelt käitumisel põhinev test.
Kui mõtled sellele, siis kas pole mitte käitumine see, kuidas me teineteist hindame?
Tõesti, ka mina võiks olla robot!
Samuti võiks ka need tüübid, kes aitavad mul seda episoodi filmida.
Põhjus, miks ma ei arva end töötavat hulga androididega on, et nad käituvad nagu ma olen inimestest harjunud.
Vähemalt enamasti.
Ja kui me näieme, et keegi käitub meie sarnaselt,
väljendavad asju nagu intentsionaalsus ja arusaamine,
siis me eeldame, et nad tõesti on intentisionaalsed ja arusaavad.
Kerides nüüd mõnikümmend aastat edasi on aeg tuttavaks saada kaasaegse Ameerika filosoofi William Lycaniga.
Ta on mitmeski Turingiga nõus ja on õnnistatud eluga ajastul, mil TI on pööraselt kiiresti arenenud.
Aga kuigi Lycan tunnistab, et paljud arvavad, et saab panna roboti isiku moodi käituma,
siis ta ei usu, et saaks luua robotit, kes oleks tõesti isik.

Chinese: 
而图灵说，如果一台机器能够让人认为它们是人，那么它就具有强AI。
所以照他的看法，像我们一样思考的意思就是说，有能力让我们相信其像我们一样思考。
如果我们不能分辨差别，那就没有差别。
这是个严格基于行为的测验。
而如果你仔细想想的话，行为不就是我们评判彼此的标准吗？
我是说，其实，我也可能是机器人！
这些拍摄人员也可能是机器人。
我之所以不认为身边同事都是机器，就在于我认为他们的行为和人的行为一样。
至少，大多数时候是如此。
而当我们看到某个东西的行为与我们大多数人一样
——表现出了意向性和理解能力的时候——
我们就会认为，它们确实拥有意向和理解能力。
现在，快进到数十年后，去看看当代美国哲学家威廉·莱肯。
他在很多方面赞同图灵，并且得益于生活在一个人工智能狂飙突进的时代。
但莱肯发现，许多人始终认为，虽然能制造出像人的机器，
但永远无法真正让一台机器成人。

French: 
Et Turing a dit si une machine peut faire croire à un humain qu'elle est un humain alors elle a une IA forte.
Alors, selon son point de vue, pour que quelque chose pense comme nous, elle devras pouvoir nous convaincre qu'elle pense comme nous.
Si nous ne pouvons pas faire de différence, alors il n'y a pas vraiment de différence.
C'est un test basé strictement sur le comportement.
Et si vous y pensez, les comportements sont le standards utilisé pour juger l'un l'autre, non ?
Je veux dire, réellement, je peux être un robot!
Ainsi que ces gars qui m'aident à filmer cet episode.
La raison qui me fait pensé que je ne travail pas avec des androids est qu'ils agissent de la manière dont je m'attend a ce que les gens agissent.
Au moins, la plupart du temps.
Et quand on voir quelqu'un affichant des comportements qui ressemblent beaucoup aux nôtres
- affichant des trucs comme l'intentionnalité et la compréhension -
on présume qu'ils ont de l'intentionnalité et de la compréhension.
Maintenant, avançons rapidement par quelque décennies, et rencontrons le philosophe contemporain américain William Lycan.
Il est d'accord avec Turing sur de nombreux points , et a l'avantage de vivre dans une époque une époque où l'intelligence artificielle a avancé follement.
Mais Lycan reconnaît que beaucoup de gens pensent encore que vous pouvez fabriquer un robot qui ressemble à une personne,
mais vous ne pouvais jamais réellement fabriquer un robot qui est une personne.

Arabic: 
تورينغ يقول: "إذا كانت الآلة تستطيع إقناع شخصٍ ما بأنها إنسان فهي تمتلك ذكاء اصطناعيًا قويًا"
إذن، من وجهة نظر تورينغ، لكي نعتبر أن شيئًا ما يفكر مثلنا، يجب أن تكون لديه القدرة على إقناعنا بذلك.
فإذا لم نستطع إنكار ذلك فهو في الحقيقة لا يختلف عنا نحن البشر.
اختبار تورينغ هو عبارة عن اختبار سلوكي صارم.
إذا كنت تفكر في ذلك، فهل السلوك معيار فعلي للحكم على بعضنا البعض؟
أعني، في الواقع، قد أكون روبوتًا.
يمكن لكل هؤلاء الذين يساعدوني في تصوير هذه الحلقة أن يكونوا روبوتات أيضًا.
السبب الذي لا يجعلني أظن أنني أعمل مع مجموعة من الروبوتات هو أنهم يتصرفون بالطريقة التي أتوقعها من الأشخاص.
على الأقل، أغلب الأوقات
عندما نرى شخص يظهر بالسلوكيات التي نظهر بها
- أشياء مثل القصد والفهم -
فسنفترض أن لديهم قدرات القصد والفهم.
الآن، لنتقدم بالزمن عدة عقود، ونلتقي بالفيلسوف الأمريكي المعاصر ويليام لايكان.
اتفق لايكان مع تورينغ في عدة نقاط، , وكانت لديه أفضلية العيش في عصر تقدم فيه الذكاء الاصطناعي  بشكل جنوني.
لكن تنبه لايكان بأن العديد من البشر يظن أنه  ما زال بالإمكان أن نصنع روبوتات مشابهة للبشر،
لكن في الواقع لا يمكننا صنع روبوتات كالبشر تمامًا.

Spanish: 
Y Turing dijo, si una máquina puede engañar a un humano y hacerle creer que es un ser humano, entonces tiene IA fuerte.
En su opinión, para que algo piense como nosotros basta con que sea capaz de convencernos de que piensa como nosotros.
Si no podemos diferenciarlo, realmente no hay diferencia.
Es una prueba basada estrictamente en el comportamiento.
Y si piensas en ello, ¿no es el comportamiento el estándar que utilizamos para juzgar a los demás?
Es decir, ¡yo podría ser un robot!
También lo podrían ser estas personas que me ayudan a grabar este episodio.
La razón por la que no creo que esté trabajando con un montón de androides es porque actúan de la manera que espero que la gente a actue.
Al menos la mayor parte del tiempo.
Y cuando vemos a alguien presentar comportamientos parecidos a los nuestros
– cosas como la intencionalidad y el entendimiento –
suponemos que tienen intencionalidad y entendimiento.
Ahora, avanzemos unas cuantas décadas para conocer al filósofo estadounidense contemporáneo William Lycan.
Él está de acuerdo con Turing en muchos puntos, y tiene la ventaja de vivir en una época en que la inteligencia artificial ha avanzado mucho.
Pero Lycan reconoce que mucha gente todavía piensa que se puede hacer un robot similar a una persona,
pero que realmente nunca se podría hacer un robot que sea una persona.

English: 
And Turing said, if a machine can fool a human into thinking it's a human, then it has strong AI.
So in his view, all it means for something to think like us is for it to be able to convince us that it’s thinking like us.
If we can’t tell the difference, there really
is no difference.
It's a strictly behavior-based test.
And if you think about it, isn’t behavior
really the standard we use to judge each other?
I mean, really, I could be a robot!
So could these guys who are helping me shoot
this episode.
The reason I don’t think I’m working with a bunch of androids is that they act the way that I’ve come to expect people to act.
At least, most of the time.
And when we see someone displaying behaviors
that seem a lot like ours
– displaying things like intentionality
and understanding –
we assume that they have intentionality and
understanding.
Now, fast-forward a few decades, and meet contemporary American philosopher William Lycan.
He agrees with Turing on many points, and has the benefit of living in a time when artificial intelligence has advanced like crazy.
But Lycan recognizes that a lot of people still think that you can make a person-like robot,
but you could never actually make a robot
that’s a person.

Portuguese: 
E Turing disse, se uma máquina pode fazer um humano pensar que que esta é um humano, então possui uma forte AI.
Do seu ponto de vista, o que importa para dizer que algo pensa como nós, é sua capacidade de os convencer disto.
se não pudermos dizer a diferença, então não há diferença.
Este é um teste baseado estritamente no comportamento.
E se você pensar a respeito, não é o comportamento a base que usamos para julgar uns aos outros?
Quero dizer, sério, Eu poderia ser um robô!
Também poderia ser esses caras que estão me ajudando a filmar este episódio.
A razão que eu não acho que estou trabalhando com um monte de androides é que eles agem da maneira que eu venho a esperar que pessoas ajam.
Pelo menos, na maoiria das vezes.
E quando vemos alguém exibindo comportamentos que parecem muito com o nosso
- exibindo coisas como intencionalidade e compreensão -
assumimos que estes possuem intencionalidade e compreenssão.
Agora, avance algumas décadas, e conheça o contemporâneo filósofo americano William Lycan.
Ele concorda com Turing em muitos pontos, e tem o benefício de viver em uma época na qual a inteligência artificial avançou como um louco.
Mas Lycan reconhece que muitas pessoas pensam que você poderia criar um robô igual uma pessoa,
mas que você jamais poderia fazer um robô que é uma pessoa.

Chinese: 
对于这些人，莱肯让他们思考一下这位同志：哈利。
哈利是台人形机器，皮肤足可乱真。他能打高尔夫，能拉中提琴。
会感到紧张。会做爱。不太会喝昂贵的杜松子酒。
哈利就和我哥哥一样，与人一般无二。
他有意向有情感。你把他当作朋友。
所以，假使哈利被割伤，你看到流的不是血而是机油肯定会觉得惊讶。
但莱肯说，这个发现不应该让你把哈利的认知等级，从「人」降到了「类人」。
如果你现在又说哈利不是人，那他到底突然缺了什么呢？
一个可能的答案是，他不是人，因为他是被编程的。
莱肯的回答是，额，难道人类不是吗？
我们每个人都有遗传密码，其预设了我们的很多特征——
你也许继承了母亲的急性子，或祖父的冷幽默。
除了先天要素以外，父母和老师也在后天为你输入了一系列程序。
你被编程去用马桶，使用餐具，说英语而非葡萄牙语。
当然，你也许也说葡萄牙语。但即便如此，这也是被编程的。

Arabic: 
لهؤلاء الأشخاص، قدم لايكان هذا الشخص لأخذه بالاعتبار: هاري.
هاري هو إنسان آلي مغطى ببشرة مشابهة لبشرة الإنسان الحقيقي. يستطيع لعب الغولف، عزف الكمان،
يتوتر ويمارس الجنس. لديه نقطة ضعف تجاه الجن -نبيذ-.
هاري مثل جون غرين، يعطيك إنطباع بأنه شخص حقيقي.
يمتلك نوايا وعواطف. تستطيع اتخاذه كصديق لك.
لذا إذا جُرح هاري ونزف زيتًا بدلًا عن الدم. سيفاجئك ذلك حتمًا.
لكن، يقول لايكن: " لا ينبغي لهذا الحدث أن يجعلك  تقلل من قدرات هاري الإدراكية وتحكم عليه أنه ليس بشري، وإنما مشابه للبشر."
إذا أردت المجادلة  أن هاري ليس إنسانًا ، فمالذي ينقصه؟
أحد الإجابات الممكنة هي أنه ليس إنسانًا  لأنه مبرمج.
يردل ايكن على ذلك: "ألسنا مبرمجين أيضًا؟"
يأتي كل منا محملًا بالشيفرات الجينية التي تجعل منا أشياء مختلفة
قد تكون سريع الغضب مثل أمك، أو يكون لديك حس فكاهة جاف كالذي لدى جدك
بالإضافة إلى الشيفرات التي امتلكتها عند ولادتك، فلقد تمت برمجتك بطرق مختلفة سواءًا من أهلك أو مدرسيك.
بُرمجت لاستخدام دورة المياه واستخدام الملاعق والسكاكين، والتحدث بالإنجليزية بدلًا من البرتغالية.
إلا اذا كنت تتحدث البرتغالية طبعًا، وحتى في هذه الحالة ستظل مُبرمجًا

French: 
Et pour ces gens, Lycan offrirait ce gars pour l'examen : Harry.
Harry est robot humanoïde avec une peau réaliste. Il peut jouer du golf et l'alto.
Il exprime l'inquietude. Il fait l'amour. Il est faible vis à vis du gin cher.
Harry, comme John Green, donne toute les impressions qu'il est une personne.
Il a des intentions et des emotions. Vous le considérez comme votre ami.
Donc, si Harry se coupe , puis l'huile de moteur , plutôt que de sang , se déverse , vous serais certainement surpris.
Mais , Lycan dit , cette révélation ne devrait pas vous faire rétrograder l'état cognitif de Harry de "personne" à "semblant de personne" .
Si vous voulez dire que Harry n'est pas une personne, alors qu'est-ce qu'il manque?
Une réponse possible est qu'il ne l'est pas parce qu'il a été programmé .
La réponse de Lycan à cette question est , bien , nous ne le sont pas?
Chacun de nous est venu chargé avec un code génétique qui nous prédispose à toutes sortes de choses -
vous pourriez avoir un fusible court comme votre maman, ou un sens de l'humour comme votre grand-père.
Et en plus du codage que vous aviez à la naissance , vous avez été programmé dans toutes sortes d'autres façons par vos parents et vos enseignants .
Vous avez été programmé pour utiliser une toilette , de l'argenterie , de parler anglais , plutôt que le portugais.
Sauf, bien sûr , si vous parlez portugais. Mais si vous le faites, vous étiez toujours programmé.

English: 
And for those people, Lycan would offer up
this guy for consideration: Harry.
Harry is a humanoid robot with lifelike skin.
He can play golf and the viola.
He gets nervous. He makes love.
He has a weakness for expensive gin.
Harry, like John Green, gives every impression
of being a person.
He has intentions and emotions.
You consider him to be your friend.
So if Harry gets a cut, and then motor oil, rather than blood, spills out, you would certainly be surprised.
But, Lycan says, this revelation shouldn’t cause you to downgrade Harry’s cognitive state from “person” to “person-like.”
If you would argue that Harry’s not a person,
then what’s he missing?
One possible answer is that he’s not a person
because he was programmed.
Lycan’s response to that is, well, weren’t
we all?
Each of us came loaded with a genetic code that predisposed us to all sorts of different things –
you might have a short fuse like your mom,
or a dry sense of humor like your grandfather.
And in addition to the coding you had at birth, you were programmed in all sorts of other ways by your parents and teachers.
You were programmed to use a toilet, silverware,
to speak English, rather than Portuguese.
Unless, of course, you speak Portuguese.
But if you do, you were still programmed.

Portuguese: 
E para essas pessoas, Lycan iria oferecer que considerassem esse cara: Harry.
Harry é um robô humanóide com uma pele realista. Ele pode jogar golfe e tocar viola.
Ele fica nervoso. Ele faz amor. Ele tem uma fraqueza por gin caro.
Harry, como John Green, dá a impressão de ser uma pessoa.
Ele tem intenções e emoções. Você o considera como seu amigo
Então, se Harry recebe um corte e, em seguida, óleo de motor, em vez de sangue, é derramado, você certamente ficaria surpreso.
Mas, Lycan diz que essa revelação não deve fazer com que você rebaixe o estado cognitivo de Harry de "pessoa" para "igual uma pessoa".
Se você argumentaria que Harry não é uma pessoa, então o que lhe falta para tal?
Uma possível resposta é que ele não é uma pessoa porque ele foi programado.
A resposta de Lycan a isso é, bem, não somos todos?
Cada um de nós veio carregado com um código genético que nos prédispõe a todos os tipos de coisas diferentes -
Você pode ter um pavio curto como sua mãe, ou um senso de humor áspero como seu avô.
E além da codificação que você teve no nascimento, você foi programado em todas as putra formas possiveis por seus pais e professores.
Você foi programado para usar um banheiro, talheres, para falar inglês, ao invés de português.
A menos que, claro, você fale português. Mas se você fizer isso, você ainda esta programado

Spanish: 
Y para aquellas personas, Lycan ofrecería a este chico para su consideración: Harry.
Harry es un robot humanoide con piel que parece natural. Él puede jugar golf y tocar la viola.
Se pone nervioso. Hace el amor.
Tiene una debilidad por la ginebra cara.
Harry, al igual que John Green, da la impresión de ser una persona.
Tiene intenciones y emociones.
Lo consideras tu amigo.
Así que si Harry se corta y derrama aceite de motor en lugar de sangre, sin duda te sorprenderías.
Pero, dice Lycan, esta revelación no debe hacer que se degrade el estado cognitivo de Harry de "persona" a "parecido a una persona".
Si argumentas que Harry no es una persona, entonces, ¿qué es lo que falta?
Una posible respuesta es que él no es una persona porque fue programado.
La respuesta de Lycan a eso es, 
bueno, ¿no lo estamos todos?
Cada uno de nosotros vino cargado con un código genético que nos predispone a todo tipo de cosas,
es posible que tengas mal temperamento al igual que tu madre, o un sentido del humor como el de tu abuelo.
Y además de la codificación que tenías al nacer, fuiste programado en todo tipo de maneras por sus padres y profesores.
Fuiste programado para usar un inodoro, los cubiertos, hablar español en lugar de portugués.
A menos que, por supuesto, hables portugués.
Pero si lo haces, sigues estando programado para ello.

Dutch: 
En voor die mensen heeft Lycan deze gozer om te overwegen: Harry
Harry is een mensachtige robot met levensechte huid. Hij kan golfen en viool spelen.
Hij wordt nerveus. Hij bedrijft de liefde. Hij heeft een zwakte voor dure jenever.
Harry, net als John Green, lijkt in elk opzicht een persoon te zijn.
Hij heeft intenties en emoties. Je noemt hem je vriend.
Dus als Harry een snijwond krijgt, en er komt motorolie in plaats van bloed uit, dan zou je zeker verbaasd zijn.
Maar, zegt Lycan, deze onthulling zou er niet voor moeten zorgen dat je Harry's cognitieve staat degradeert van "persoon" tot "persoon-achtig".
Als je zou zeggen dat Harry geen persoon is, wat mist hij dan?
Een mogelijk antwoord is dat hij geen persoon is omdat hij is geprogrammeerd.
Lycan's antwoord daarop is, nou, zijn we dat niet allemaal?
Iedereen van ons kwam met een genetische code die ons aanleg gaf voor allerlei dingen -
Je hebt misschien een kort lontje net als je moeder, of droge humor net als je opa.
En naast de codering die je had bij je geboorte, werd je op allerlei manieren geprogrammeerd door je ouders en leraren.
Je werd geprogrammeerd om een toilet te gebruiken, en bestek, om Engels te spreken, in plaats van Portugees.
Tenzij je Portugees spreekt natuurlijk. Maar als dat zo is, dan ben je nog steeds geprogrammeerd.

Estonian: 
Neile, kes siiski nii arvavad, pakub Lycan sellise tegelease arutluse alla: Harry.
Harry on humanoid robot, kel on elutruu nahk. Ta oskab mängida golfi ja vioolat.
Ta muutub närviliseks, ta armatseb, tal on nõrkus kalli džinni vastu
Harry, nagu ka John Green, annab iga põhjuse arvata, et tegu on isikuga.
Tal on kavatsused ja emotsioonid. Sa pead teda oma sõbraks.
Seega kui Harry end lõikab ja moorotiõli vere asemel välja tuleb, siis sa oleks kindlasti üllatunud.
Aga Lycan ütleb, et see avastus ei tohiks panna sind alandama Harry kognitiivset võimekust isikust isikulaadseks.
Kui va väidaksid, et Harry ei ole isik, siis mis on tal puudu?
Üks võimalik vastus on, et ta ei ole isik kui ta on programmeeritud.
Lycani vastus sellele on, et kas see pole meie kõigiga nii?
Igaüks meist tuli maailma laetud geneetilise koodiga, mis suunas meid eri asjade poole,
Vahest oled sa äkkiline, nagu su ema, või sul on kuiv huumorimeel nagu su vanaisal.
Ja lisaks koodile, millega sa kaasa sündisid olid sa ka programmeeritud oma vanemate ja õpetajate poolt.
Sind programmeeriti kasutama tualetti, söögiriistu ja rääkima eesti, mitte portugali keelt.
Kui sa muidugi ei räägi portugali keelt.
Aga kui sa räägid, siis sa olid ikkagi programmeeritud.

Portuguese: 
E o que você acha que eu estou fazendo agora? Eu estou programando você!
Claro, você tem a capacidade de ir além de sua programação, mas também o faz Harry. Esse é o ponto de Lycan.
Agora outra distinção que você pode fazer entre pessoas como nós e Harry é que temos almas e Harry não.
Agora, você provavelmente já viu suficiente Crash Course Philosophy até agora para saber o quão problemático este argumento é.
Mas suponhamos que haja um Deus, e  que ele deu a cada um de nós uma alma.
Nós, naturalmente, não temos ideia de como o processo de "almanização" possa parecer.
Mas basta dizer, se Deus pode atribuir uma alma a um óvulo fertilizado ou a um bebê recém-nascido,
não há motivo para se pensar que ele não poderia atribuir uma à Harry também.
Harry não pode se reproduzir, mas tampouco muitos seres humanos, e não os chamamos de não-pessoas.
Ele não tem sangue, mas, realmente, você acha que é isso que te determina?
Lycan diz que Harry é uma pessoa.
Sua origem e sua constituição material são diferentes das suas e das minhas, mas quem se importa?
Afinal, houve tempos e lugares em que ter uma cor diferente da pele, ou diferentes órgãos sexuais,

Estonian: 
Ja mida ma sinu arvates hetkel teen?
ma programmeerin sind!
Muidugi on sul võimalik minna oma koodist kaugemale, aga nii on see ka Harry puhul. Seda tahabki Lycan öelda.
Veel üks eristus, mida sa võid tahta teha meiesuguste isikute ja Harry vahel on see, et meil on hing, aga Harry'l mitte.
Aga kui sa oled näinud piisavalt Crash Course Filosoofiat, siis sa tead kui problemaatiline see väide on.
Aga eeldame, et on jumal ja eeldame, et ta annab meist igaühele hinge.
Meil muidugi pole aimugi kuidas see "hingestamine" võiks välja näha.
Aga on piisav öelda, et kui jumal saab panna hinge viljastatud muna või vastsündinud beebi sisse,
siis pole head põhjust arvamaks, et ta ei saaks üht panna ka Harry sisse.
Harry ei saa reprodutseerida, aga niisamuti ei saa ka paljud inimesed ja me ei kutsu neid mitte-isikuteks.
Tal pole verd, aga kas sa tõesti arvad, et see on see, mis teeb sinust sinu?
Lycan ütleb, et Harry on isik.
Tema allikas ja materiaalne kooslus on meist erinevad, aga keda huvitab?
On olnud palju aegu ja kohti mil teistsugune nahavärv või seksuaalorganid,

Spanish: 
Y ¿qué cree que estoy haciendo en este momento?
¡Te estoy programando!
Claro, tienes la capacidad de ir más allá de tu programación, pero lo mismo ocurre con Harry. Ese es el punto de Lycan.
Ahora otra distinción que es posible establecer entre las personas como nosotros y Harry es que tenemos almas y Harry no.
Ahora, probablemente has visto suficiente Crash Course Filosofía como para saber lo problemático que es este argumento.
Pero supongamos que hay un Dios, y  supongamos que nos ha dado un alma a cada uno de nosotros.
Nosotros, por supuesto, no tenemos idea de cómo es el  proceso de "la llegada del alma".
Pero basta con decir, si Dios puede dar un alma a un óvulo fertilizado o a un bebé recién nacido,
no hay razón para suponer que no podría
darle una a Harry también.
Harry no puede reproducirse, pero tampoco muchos otros humanos y no los llamamos no-personas.
Él no tiene sangre, pero, en realidad, 
¿crees que eso es lo que te hace ser tú?
Lycan dice que Harry es una persona.
Su origen y su constitución material son
diferentes a la tuya y la mía, pero ¿a quién le importa?
Después de todo, ha habido momentos y lugares en los que tener un color de piel diferente o diferentes órganos sexuales,

French: 
Et que pensez-vous que je fais maintenant? Je vous programme !
Bien sûr, vous avez la possibilité d' aller au-delà de votre programmation, mais il en va de même pour Harry . Voilà le point de Lycan.
Maintenant, une autre distinction que vous pourriez faire entre les personnes comme nous et Harry est que nous avons des âmes et Harry non.
Maintenant , vous avez probablement vu assez Crash Course Philosophy pour savoir à quel point cet argument est problématique .
Mais supposons qu'il ya un Dieu , et supposons qu'il a donné à chacun d'entre nous une âme .
Nous avons bien sûr aucune idée à quoi  pourrait ressembler  le processus de « ensoulment ».
Mais il suffit de dire , si Dieu peut zapper une âme dans un œuf fécondé ou d'un nouveau-né,
il n'y a aucune raison de supposer qu'il ne pouvait pas zapper une dans Harry aussi.
Harry ne peut pas se reproduire, mais c'est le cas de beaucoup d' êtres humains , et nous ne les appelons pas des non-personnes .
Il n'a pas de sang, mais , vraiment , pensez-vous que c'est la chose qui vous fait vous ?
Lycan dit Harry est une personne .
Son origine et sa constitution matérielle sont différentes que les vôtres et les miennes, mais qui s'en soucie ?
Après tout, il y a eu des moments et des lieux dans lesquels ayant une couleur de peau différente , ou de différents organes sexuels ,

Dutch: 
En wat denk je dat ik nu aan het doen ben? Ik ben je aan het programmeren!
Natuurlijk, je hebt de mogelijkheid om je programmering voorbij te gaan, maar Harry ook. Dat is Lycan's punt.
Een ander verschil dat je zou kunnen maken tussen personen zoals ons en Harry is dat wij zielen hebben en Harry niet.
Nu, je hebt waarschijnlijk genoeg Crash Course Philosophy gezien tot nu toe om te weten hoe problematisch dit argument is.
Maar laten aannemen dat er een God is, en laten we aannemen dat hij elk van ons een ziel heeft gegeven.
Wij hebben natuurlijk geen idee hoe het proces van "bezieling" er uit zou zien.
Maar het is genoeg om te zeggen, als God een ziel in een bevrucht eitje of een pasgeboren baby kan plaatsen,
dan is er geen echte reden om te denken dat hij er niet ook een in Harry kan plaatsen.
Harry kan zich niet voortplanten, maar veel mensen dat ook niet, en we noemen hen geen non-personen.
Hij heeft geen bloed, maar denk je echt dat dat is wat jou jou maakt?
Lycan zegt dat Harry een persoon is.
Zijn oorsprong en materiële opbouw zijn anders dan die van jou en mij, maar wat maakt dat uit?
Er zijn tenslotte tijden en plaatsen geweest waar het hebben van een andere huidskleur, of andere geslachtsorganen,

Arabic: 
و مالذي تظن أنني أفعله الآن؟ أنا أبرمجك
بالتأكيد يمكنك تجاوز او تغيير برمجتك، لكن حتى هاري يستطيع فعل ذلك، و تلك هي وجهة نظر لايكن.
هناك نقطة أخرى للتمييز بيننا وبين هاري قد تُطرح وهي امتلاكننا للأرواح وعدم امتلاك هاري لها.
الآن، على الأرجح أنك قد رأيت ما يكفي من سلسلة الفلسفة الخاصة بكراش كورس لتعرف إشكالية هذه الحجة.
لكن لنفترض وجود إله، دعنا نفترض أيضًا أنه أعطى كل منا روحًا.
بالتأكيد ليس لدينا فكرة عن العملية التي تنفخ بها الروح.
لكن، دعنا نقول أنه اذا كان بمقدور الإله  نفخ روح في بويضة أو طفلٍ حديث الولادة،
لا يوجد سبب حقيقي لنفترض أنه لن يبثها في هاري أيضًا.
لا يمكن لهاري التكاثر، الكثير من البشر لايمكنهم ذلك أيضًا، و لا نعتبرهم غير بشريين.
ليس لديه دم أيضًا، لكن هل تظن حقًا أن هذا هو الشيء الذي يجعلك بشريًا؟
لايكن يقول بأن هاري بشري.
أصله المادي يختلف عنك وعني، لكن من الذي يهتم؟
في النهاية، ستجد  بعض الأماكن والعصور التي كان فيها امتلاك  ألوان بشرة مختلفة وحتى أعضاء تناسلية مختلفة

Chinese: 
而且你觉得我现在正在干啥？我在给你编程啊！
当然，你能够超越你的程序，但哈利也行。这就是莱肯的重点。
你还可能反驳到，哈利不是人，因为我们有灵魂，他没有。
现在你已经看了足够多的哲学速成课，应该知道这个论证多有问题。
但我们还是假设，神存在，并且祂赐予了我们每个人灵魂。
我们当然不知道这个「赐魂」的过程是怎样的。
但这不打紧，因为如果神能将灵魂塞入受精卵或新生儿，
那就没理由觉得祂不能给哈利灵魂。
哈利不能繁殖，但很多人也不行，所以这也不是理由。
他确实没有血，但你觉得是你的血让你成为一个人的吗？
所以莱肯说，哈利是个人。
他的来历和物质构成，与你我不同，但那又如何呢？
虽然在很多时代和地方，一些人因为肤色或性别的差异，

English: 
And what do you think I’m doing right now?
I’m programming you!
Sure, you have the ability to go beyond your programming, but so does Harry. That’s Lycan’s point.
Now another distinction that you might make between persons like us and Harry is that we have souls and Harry doesn’t.
Now, you’ve probably seen enough Crash Course Philosophy by now to know how problematic this argument is.
But let’s suppose there is a God, and let’s
suppose that he gave each of us a soul.
We of course have no idea what the process
of “ensoulment” might look like.
But suffice it to say, if God can zap a soul
into a fertilized egg or a newborn baby,
there’s no real reason to suppose he couldn’t
zap one into Harry as well.
Harry can’t reproduce, but neither can plenty
of humans, and we don’t call them non-persons.
He doesn’t have blood but, really, do you think that that’s the thing that makes you you?
Lycan says Harry’s a person.
His origin and his material constitution are
different than yours and mine, but who cares?
After all, there have been times and places in which having a different color of skin, or different sex organs,

Estonian: 
on põhjustanud nende mitte-isikuks sildistamise, aga me teame, et selline asi ei talu kriitilist pilku.
1950. aastal ei teadnud Turing ühtegi masinat, mis suudaks ta testi läbida.
Aga ta arvas, et see juhtub aastaks 2000.
Siiski tuleb välja, et me suudame mõelda väljaspool oma programmi viisidel nagu arvutid ei suuda,
ja on olnud väga raske luua programmi, mis suudaks Turingi testi läbida.
Aga mis juhtub, kui miski suudab?
Paljud väidavad, et isegi kui masin läbib Turingi testi, siis me ei saa kindlad olla, et ta tõesti on tugev TI.
Veed vastuväitjad ütlevad, et meie moodi mõtlemise jaoks on vaja enamat kui lihtsalt meid petta.
Suundume Mõttemulli ja teeme pisut välkfilosoofiat.
Kaasaegne Ameerika filosoof John Searle koostas kuulsa mõtteeksperimendi mida hüütakse "Hiina Toaks,"
Mis oli kavandatud näitamaks, et inimene olemise teesklemisest ei piisa Tugev AI olemiseks.
Kujuta ette, et sa oled inimene, kes ei räägi hiina keelt.
Sa oled lukustatud tuppa, mis on täidetud Hiina tähemärkidega,
ja sul on eestikeelne koodi raamat juhistega, mis tähemärke välja anda milliste juhtnööride vastuseks.
Hiina keele emakeelena kõnelejad saadavad tuppa kirjutatud sõnumeid hiina keels.
Koodi raamatu abiga mõtled sa välja milliste tähemärkidega vastata,

Chinese: 
而被视为「非人」，但我们知道这种想法是站不住脚的。
回到1950年，图灵知道没有机器能通过他的测验。
但他认为到了2000年就会有。
尽管，由于我们能超越程序思考，而电脑不能，
所以设计能通过图灵测验的程序是非常困难的。
但如果以后真的做出来了呢？
许多人说，即使有机器通过了图灵测验，也不能说明其拥有强AI。
这些反对者指出，「像我们一样思考」不止是能够愚弄我们。
让我们进入Thought Bubble看看Flash Philosophy。
当代美国哲学家约翰·塞尔设计了一个著名的思想实验，叫做「汉字屋」，
以此来表明，即使通过测验，对确定强AI也是不充分的。
假设你不会汉语。
你被关在一间屋子里，里面有汉字
和一本英文写的指导书，告诉你应该用哪些汉字来回应输入的信息。
屋外则是中国人，用汉语写信息，递进屋子里。
用指导书，你就知道如何回应你接受到的汉字信息，

Spanish: 
causaba que alguien fuera etiquetado como "no-persona", pero sabemos que ese tipo de pensamiento no se sostiene al escrutinio.
En 1950, Turing sabía que ninguna máquina podría pasar su prueba.
Pero pensó que podría suceder en el año
2000.
Resulta, sin embargo, que debido a que podemos pensar fuera de nuestra programación de maneras en que los programas informáticos no pueden,
ha sido muy difícil diseñar un programa que pueda pasar la prueba de Turing.
¿Pero qué sucederá cuando algo pueda hacerlo?
Muchos sostienen que, incluso si una máquina pasa la prueba de Turing, eso no nos dice que en realidad tenga una IA fuerte.
Estos objetores sostienen que "pensar como nosotros" es más que simplemente ser capaz de engañarnos.
Vayamos a la burbuja de pensamiento para un poco de Filosofía Flash.
El filósofo norteamericano contemporáneo John Searle construyó un famoso experimento mental llamado "El cuarto chino",
diseñado para mostrar que hacerse pasar por humano no es suficiente para calificar como inteligencia artificial fuerte.
Imagina que eres una persona que no habla chino.
Estás encerrado en una habitación con cajas llenas de caracteres chinos,
y un libro de códigos en tu idioma con instrucciones sobre qué caracteres utilizar en respuesta a lo que te envíen.
Hablantes nativos de chino envían mensajes escritos en chino al cuarto.
Usando el libro de códigos, averiguas cómo responder a los caracteres que recibes,

Arabic: 
تتسبب في وصفٍ يُخرجُ من دائرةِ البشرية، لكننا نعرف أن هذا التفكير لا يصمد أمام التمحيص.
بالعودة لـ 1950، عرف تورينغ بأنه لايمكن لأي آلة اجتياز اختباره.
لكن توقع حدوث ذلك في عام 2000.
يبين لنا ذلك أننا قادرين على التفكير بطرق غير التي تمت برمجتنا عليها لكن لا يمكن للحواسيب ذلك.
كان من الصعب جدًا صنع برنامج يمكنه اجتياز اختبار تورينغ.
لكن مالذي سيحدث إذا استطاعت آلة ما اجتياز هذا الاختبار؟
يجادل العديد أنه حتى في حالة تجاوز آلة ما لإختبار تورنغ فإن هذا لا يعني امتلاكها لذكاء اصطناعي قوي.
يزعم هؤلاء المعترضين أن التفكير مثلنا يتعدى مجرد خداعنا.
دعنا نلقي نظرة على فقاعة الأفكار للفلسفة المضيئة.
أنشأ الفيلسوف الأمريكي المعاصر جون سيرل فكرة التجربة المشهورة المسماة (الغرفة الصينية).
صممت لإظهار أن اجتياز اآلة لهذا الاختباركإنسان لا يكفي للقول بأنها تمتلك ذكاء اصطناعيًا قويًا.
تخيل أنك شخص لا يتحدث باللغة الصينية.
احتجزت في غرفة مليئة بالصناديق التي تحتوي على رموز صينية،
مع كتاب إنجليزي  يحتوي على إرشادات بمعاني الرموز لتستطيع التفاعل مع المدخلات.
المتحدث الأصلي للغة الصينية سيدخل رسائل مكتوبة  باللغة الصينية إلى الغرفة.
باستخدام كتاب الرموز، قد تخمن معاني الرموز

French: 
a causé quelqu'un pour être qualifié de « non - personne», mais nous savons ce genre de réflexion ne tient pas à l'examen .
En 1950 , Turing savait qu'aucune machine ne pouvait passer son test.
Mais il pensait que cela arriverait en l'an 2000 .
Il se trouve , cependant, que parce que nous pouvons penser en dehors de notre programmation de manières que programmes d'ordinateur ne peuvent pas,
il a été vraiment difficile de concevoir un programme qui peut passer le test de Turing .
Mais que se passera-t-il quand une chose peut ?
Beaucoup affirment que , même si une machine passe le test de Turing , cela ne nous nous permettra pas de dire pour autant qu'elle un IA forte.
Ces opposants affirment qu'il y a plus à "penser comme nous" que de simplement être capable de nous tromper.
Dirigeons-nous vers la bulle de pensées pour un peu de Flash Philosophy.
Le philosophe contemporain américain John Searle a construit la fameuse experience de pensée appelée "la chambre chinoise",
conçu pour montrer que se faire passer pour un homme ne suffit pas être qualifier d'IA forte .
Imaginez que vous êtes une personne qui ne parle pas chinois.
Vous êtes enfermé dans une pièce avec des boîtes remplies de caractères chinois ,
et un livre de code en anglais avec des instructions sur quels  caractères à utiliser en réponse pour chaque entrée .
Des locuteurs chinois natifs passent des messages écrits , en chinois , dans la pièce.
En utilisant le livre de code, vous avez compris comment répondre aux caractères reçus,

Dutch: 
er voor zorgden dat iemand een "non-persoon" genoemd werd, maar we weten dat dat soort denken geen steek houdt.
Turing wist in 1950 dat geen machine zijn test kon doorstaan.
Maar hij dacht dat dat zou gebeuren voor het jaar 2000.
Het blijkt echter dat, doordat we voorbij onze programmering kunnen denken op een manier die computer programma's niet kunnen,
het heel moeilijk is om een programma te ontwerpen dat de Turing Test kan doorstaan.
Maar wat zal er gebeuren als iets dat wel kan?
Velen vinden dat, zelfs als een machine de Turing test doorstaat, dat niet zegt dat het echt sterke AI heeft.
Deze tegenstanders zeggen dat "denken zoals wij" meer inhoudt dan alleen ons te kunnen foppen.
Laten we naar de Thought Bubble gaan voor wat Flash Philosophy.
Hedendaags Amerikaans filosoof John Searle construeerde een bekend gedachte-experiment genaamd de "Chinese Kamer",
ontworpen om te laten zien dat het lijken op een mens niet genoeg is om sterke AI te zijn.
Stel je voor dat je een persoon bent die geen Chinees spreekt.
Je bent opgesloten in een kamer met dozen vol Chinese karakters,
en een codeboek in het Engels met instructies voor welke karakters te gebruiken als antwoord op welke invoer.
Moedertaalsprekers van het Chinees geven geschreven berichten, in het Chinees, door naar de kamer.
Met behulp van het codeboek, kom je erachter hoe je moet antwoorden op de karakters die je krijgt,

Portuguese: 
Fez alguém ser rotulado como "não-pessoa", mas sabemos que esse tipo de pensamento não resiste ao escrutínio.
Em 1950, Turing sabia que nenhuma máquina poderia passar no teste.
Mas ele pensou que isso aconteceria até o ano 2000.
Acontece, porém, que porque podemos pensar fora de nossa programação, de forma que os programas de computador não pode,
Tem sido muito difícil projetar um programa que possa passar no teste de Turing.
Mas o que acontecerá quando algo puder?
Muitos argumentam que, mesmo se uma máquina passar no teste de Turing, isso não nos diz que ele realmente tem AI forte.
Esses objetores argumentam que exige mais para "pensar como nós" do que simplesmente ser capaz de nos enganar.
Vamos para a Bolha do Pensamento para alguma "Flash Philosophy".
O filósofo americano contemporâneo John Searle construiu um famoso experimento chamado "Chinese Room"(quarto chinês),
Projetado para mostrar que passar por humano não é suficiente para se qualificar como AI forte.
Imagine que você é uma pessoa que não fala chinês
Você está trancado em uma sala com caixas cheias de caracteres chineses,
E um livro de código em inglês com instruções sobre quais caracteres usar em resposta ao que recebe.
Falantes chineses nativos passam mensagens escritas, em chinês, para a sala.
Usando o livro de código, você descobrir como responder aos caracteres que você recebe,

English: 
has caused someone to be labeled a “non-person,” but we know that kind of thinking doesn't hold up to scrutiny.
Back in 1950, Turing knew no machine could
pass his test.
But he thought it would happen by the year
2000.
It turns out, though, that because we can think outside of our programming in ways that computer programs can't,
it's been really hard to design a program
that can pass the Turing Test.
But what will happen when an something can?
Many argue that, even if a machine does pass the Turing test, that doesn't tell us that it actually has strong AI.
These objectors argue that there's more to
“thinking like us” than simply being able to fool us.
Let’s head over to the Thought Bubble for
some Flash Philosophy.
Contemporary American philosopher John Searle constructed a famous thought experiment called the “Chinese Room,”
designed to show that passing for human isn’t
sufficient to qualify for strong AI.
Imagine you're a person who speaks no Chinese.
You’re locked in a room with boxes filled
with Chinese characters,
and a code book in English with instructions about what characters to use in response to what input.
Native Chinese speakers pass written messages,
in Chinese, into the room.
Using the code book, you figure out how to
respond to the characters you receive,

Dutch: 
en je geeft de goede karakters terug.
Je hebt geen idee wat het allemaal betekent, maar je volgt de code met succes.
Je doet dit zelfs zo goed, dat de Chinese moedertaalsprekers geloven dat je Chinees kunt.
Je hebt de Turing test van het Chinees spreken doorstaan.
Maar kun je Chinees? Natuurlijk niet.
Je weet alleen hoe je je symbolen moet manipuleren - zonder enig begrip van wat ze betekenen -
op zo'n manier dat je mensen overtuigt dat je iets kunt wat je niet kunt.
Op de zelfde manier, betekent volgens Searle het feit dat een machine iemand kan overtuigen dat het een persoon is, niet dat het sterke AI heeft.
Searle beargumenteerd dat sterke AI eist dat de machine daadwerkelijk begrip heeft,
wat volgens hem onmogelijk ooit te halen is voor een computer.
Bedankt, Thought Bubble! Nog een punt voordat we weg zijn.
Sommige mensen reageerde op het Chinese Kamer gedachte-experiment door de zeggen, oké, je kunt geen Chinees.
Maar er is ook niet een gedeelte van je brein dat Engels kan.
Je brein als geheel systeem kan Engels.
Op dezelfde manier kan het hele systeem dat de Chinese Kamer uitmaakt - jij, het codeboek, de symbolen -
wel Chinees, ook al kan het gedeelte van het systeem dat jij bent, dat niet.

Spanish: 
y envías los caracteres apropiados
de vuelta.
No tienes idea de lo que significa, pero
has seguido correctamente el código.
Haces esto tan bien, de hecho, que los hablantes nativos de chino creen que sabes chino.
Has pasado la prueba de Turing sobre hablar chino.
Pero, ¿sabes chino?
Por supuesto no.
Sólo sabes cómo manipular los símbolos, sin comprensión alguna de lo que significan,
de manera que engaña a la gente para que piensen que sabes algo que no sabes.
Del mismo modo, de acuerdo con Searle, el hecho de que una máquina pueda engañar a alguien para que crea que es una persona, no quiere decir que tenga una IA fuerte.
Searle sostiene que la IA fuerte requeriría
que la máquina tuviera entendimiento real,
cosa que él piensa que es imposible de lograr para una computadora.
¡Gracias, Burbuja del pensamiento!
Uno punto más antes de salir de aquí.
Algunas personas han respondido al  experimento mental del cuarto chino diciendo, claro, no sabes chino.
Sin embargo, ninguna región particular de tu cerebro sabe español.
Todo el sistema que es tu cerebro sabe
español.
Del mismo modo, todo el sistema que es El cuarto chino: tú, el libro de códigos, los símbolos,
juntos saben chino, a pesar de que la  pieza particular del sistema que eres tú, no lo sabe.

Estonian: 
ja sa saadad välja sobivad tähemärgid vastuseks.
Sul pole aimugi, mida see kõik tähendab, aga sa järgid edukalt koodi.
Sa teed seda lausa ni hästi, et emakeelena rääkijad usuvad, et sa tunned hiina keelt.
Sa oled läbinud hiina keele kõnelemise Turingi testi.
Aga kas sa oskad hiina keelt? Muidugi mitte.
Sa lihtsalt tead kuidas sümboleid manipuleerida, omamata mingit arusaamist nende tähendusest,
viisil, mis petab inimesi, et sa oskad midagi, mida sa ei oska.
Niisamuti, väidab Seare, ei tähenda masina võime panna kedagi uskuma, et ta on isik, et ta tugev TI oleks.
Searle väidab, et tugev TI vajaks päriselt arusaamist,
mida ta peab arvuti jaoks eales saavutamatuks.
Aitäh, Mõttemull! Veel üks mõttetera, enne kui me lahkume.
Mõned on vastanud Hiina Toa mõtteeksperimendile öeldes, et olgu sa ei saa hiina keelst aru.
Aga niisamuti ei saa ka ükski sinu kindel ajuosa eesti keelest aru.
Terviksüsteem on see, mis eesti keelest aru saab.
Niisamuti on see terve Hiina Tuba - sina, koodiraamat, sümbolid -
koos, mis hiina keelest aru saab, kuigi ükski süsteemi osa eraldi, nagu sina, ei saa.

English: 
and you pass out the appropriate characters
in return.
You have no idea what any of it means, but
you successfully follow the code.
You do this so well, in fact, that the native
Chinese speakers believe you know Chinese.
You’ve passed the Chinese-speaking Turing
Test.
But do you know Chinese?
Of course not.
You just know how to manipulate symbols – with
no understanding of what they mean –
in a way that fools people into thinking you
know something you don't.
Likewise, according to Searle, the fact that a machine can fool someone into thinking it’s a person doesn't mean it has strong AI.
Searle argues that strong AI would require
that the machine have actual understanding,
which he thinks is impossible for a computer
to ever achieve.
Thanks, Thought Bubble!
One more point before we get out of here.
Some people have responded to the Chinese Room thought experiment by saying, sure, you don’t know Chinese.
But, no particular region of your brain knows
English, either.
The whole system that is your brain knows
English.
Likewise, the whole system that is the Chinese
Room – you, the code book, the symbols –
together know Chinese, even though the particular
piece of the system that is you, does not.

Arabic: 
وتعيد الرموز المناسبة خارج الغرفة
أنت لا تمتلك أدنى فكرة عن معاني هذه الرموز لكنك اتبعت الكتاب بشكل ناجح جدًا
مما يجعل المتحدثين الأصليين للغة الصينية يظنون بأنك تتقن اللغة الصينية.
إذن، اجتزت اختبار تورينغ للغة الصينية.
لكن هل تعرف اللغة الصينية؟ بالتأكيد لا.
أنت تعاملت مع الرموز بدون فهم حقيقي لما تعنيه هذه الرموز.
بطريقة تخدع فيها الناس فيعتقدوا أنك تعرف شيئًا لا تعرفه في الحقيقة
بأسلوب مشابه، وفقًا لسيرل، فالآلة التي تستطيع خداع شخص ما و تجعله يظن بأنها شخص حقيقي لا يعني أنها تمتلك ذكاء اصطناعي قوي.
يقول سيرل: " أن الذكاء الاصطناعي الذكي يتطلب امتلاك الآلة لميزة الفهم"
والذي يظن بأنه من المستحيل للحواسيب فعل ذلك.
شكرًا فقاعة التفكير! نقطة أخرى قبل أن نخرج من هنا.
رد بعض الأشخاص على تجربة الغرفة الصينية بأنه بالتأكيد لا نستطيع تحدث الصينية.
لكن لا يوجد جزء محدد من دماغك يعرف اللغة الإنجليزية.
بالرغم من ذلك يعرف النظام كاملًا، الذي هو عقلك، اللغة الإنجليزية.
بشكل مماثل، النظام بأكمله، أي الغرفة الصينية، - أنت، كتاب الإرشادات، والرموز -
معًا سيتقنوا تحدث الصينية. على الرغم من أن قطعة معينة من النظام هي أنت لا تعرف اللغة الصينية.

Chinese: 
而且你的回应都是恰当的。
你搞不清楚任何一条信息的意思，但你成功地遵守了指导书。
事实上你做的很好，以至于屋外的中国人相信你懂汉语。
你通过了汉语的图灵测验。
但你懂汉语吗？显然不懂。
你只是知道如何摆弄那些符号——而没有理解符号的意义——
让人误以为你知道一些事，但其实你不知道。
同样的，照塞尔的说法，一台机器能欺骗人以为其是人，和其拥有强AI也是不一样的。
塞尔说，强AI要求机器拥有真正的理解能力，
他认为电脑永远做不到这一点。
谢了，Thought Bubble！我们还有一些东西要说。
一些人回应汉字屋思想实验说，确实，你不懂汉语。
但你大脑的任何一个特定区域也一样不懂英语。
是你的大脑，这整个系统，才懂英语。
同样的，汉字屋才是一整个系统，包括你、指导书和那些符号，
加在一起才懂汉语，而系统的某个具体部分，例如你，是不懂汉语的。

Portuguese: 
e você retorna os caráteres apropriados.
Você não tem ideia do que isso significa, mas você segue com sucesso o código.
Você faz isso tão bem, de fato, que os falantes nativos chineses acreditam que você sabe chinês.
Você passou no teste de Turing de língua chinesa.
Mas você sabe chinês? Claro que não.
Você só sabe como manipular símbolos - sem entender o que eles significam -
De uma maneira que leva as pessoas à pensar que você sabe algo que você não.
Da mesma forma, de acordo com Searle, o fato de que uma máquina pode enganar alguém em pensar que é uma pessoa não significa que tem AI forte.
Searle argumenta que AI forte exigiria que a máquina tenha entendimento real,
Que ele acha impossível para um computador conseguir.
Obrigado Bolha do pensamento! Mais um ponto antes de sairmos daqui:
Algumas pessoas responderam ao experimento de pensamento da Sala Chinesa dizendo, claro, você não sabe chinês.
Mas, nenhuma região particular de seu cérebro sabe inglês.
Todo o sistema que é seu cérebro sabe inglês.
Da mesma forma, todo o sistema que é a Sala Chinesa - você, o livro de códigos, os símbolos -
Juntos sabem chinês, mesmo que a parte particular do sistema que é você, não.

French: 
et vous passez les caractères appropriés en retour.
Vous avez aucune idée de ce que tout cela signifie, mais vous suivez avec succès le code .
Vous le faites si bien , en fait, que les locuteurs chinois natifs croient que vous savez le chinois.
Vous avez passé le test de la langue chinoise de Turing .
Mais est ce que vous savez le chinois ? Bien sur que non.
Vous savez juste comment manipuler des symboles - sans comprendre ce qu'ils signifient -
d'une manière qui trompe les gens en pensant que vous savez quelque chose que vous ignorez .
Pareil, selon Searle, le fait qu'une machine peut tromper quelqu'un pour qu'il pense qu'elle est une personne ne veut pas dire qu'elle a une IA forte.
Searle affirme que l'IA forte requière qu'une machine aie une réelle compréhension,
lequel, il pense qu'un ordinateur est impossible de réaliser.
Merci, bulle de pensée! Un autre point avant qu'on sort d'ici.
Quelque personne ont répondu à l'experience de pensée de la chambre chinoise pen disant, bien sur, vous ne connaissez pas le chinois.
Mais, aucune region de votre cerveau ne connais l'anglais non plus.
Tout le système qu'est votre cerveau connais l'anglais.
Egalement, tout le système qu'est la chambre chinoise - vous, le livre de code, les symboles -
l'ensemble connais le chinois, même si la piece spécifique du système qu'est vous, ne le sais pas.

Spanish: 
Así que ... He estado pensando en ello.
Aún no estoy convencido de que John no es un robot.
De hecho, Harry me mostró que en realidad no sabemos lo que está pasando dentro de cualquiera de nosotros.
Pero si resulta que John, 
el John que he conocido toda mi vida,
tiene aceite de motor en lugar de sangre, bueno, aún así seguiría siendo mi hermano.
Hoy aprendimos acerca de la inteligencia artificial, incluyendo la IA débil y la IA fuerte,
y las diversas formas en que pensadores han intentado definir la IA fuerte.
Consideramos la prueba de Turing, y la respuesta de John Searle a la prueba de Turing, el cuarto chino.
También hablamos de William Lycan, Harry y mi hermano, el todavía-posible-pero-no-probable androide.
La próxima vez, veremos un tema que ha acechado alrededor de esta discusión de la inteligencia artificial:
¿tiene alguno de nosotros libre albedrío?
Este episodio es traído a ti por Squarespace.
Squarespace ayuda a crear sitios web, blogs
o tiendas en línea para ti y tus ideas.
Los sitios web parecen diseñados por profesionales sin importar tu nivel de habilidad, sin necesidad de usar código.
Prueba Squarespace en squarespace.com/crashcourse
para una oferta especial.
Squarespace: comparte tu pasión con el mundo.
Crash Course Filosofía se produce en asociación con PBS Digital Studios.

Dutch: 
Dus... Ik heb erover nagedacht. Ik ben nog steeds niet overtuigd dat John geen robot is.
Harry overtuigde me er zelfs van dat we eigenlijk niet weten wat er in ieder van ons omgaat.
Maar als blijkt dat John - de John die ik mijn hele leven heb gekend -
motorolie in plaats van bloed in zich heeft, nou, dan is hij nog steeds mijn broer.
Vandaag leerden we over kunstmatige intelligentie, waaronder zwakke AI en sterke AI,
en de verschillende manier waarop denkers hebben geprobeerd sterke AI te definiëren.
We overwogen de Turing test, en John Searle's antwoord op de Turing test, de Chinese Kamer.
We praatten ook over William Lycan, Harry, en mijn broer, de nog-steeds-mogelijke-maar-waarschijnlijk-niet androïde.
De volgende keer gaan we kijken naar een vraag die te maken heeft met deze discussie over kunstmatige intelligentie:
Heeft iemand van ons een vrije wil?
Deze aflevering is mede mogelijk gemaakt door Squarespace.
Squarespace helpt bij het creëren van websites, blogs en online winkels voor jou en jouw ideeën.
Websites zien er professioneel uit ongeacht je vaardigheid,  programmeren hoeft niet.
Probeer Squarespace op squarespace.com/crashcourse voor een speciaal aanbod.
Squarespace: deel je passie met de wereld.
Crash Course Filosofie is geproduceerd in samenwerking met PBS Digital Studios.

English: 
So…I’ve been thinking about it.
I’m still not convinced John isn’t a robot.
In fact, Harry really drove home the point for me that we don’t actually know what’s going on inside any of us.
But if it would turn out that John
– the John I’ve known my entire life –
has motor oil instead of blood inside, well,
he’d still be my brother.
Today we learned about artificial intelligence,
including weak AI and strong AI,
and the various ways that thinkers have tried
to define strong AI.
We considered the Turing Test, and John Searle’s
response to the Turing Test, the Chinese Room.
We also talked about William Lycan, Harry, and my brother, the still-possibly-but-probably-not android.
Next time, we’ll look into an issue that has been lurking around this discussion of artificial intelligence:
do any of us have free will?
This episode is brought to you by Squarespace.
Squarespace helps to create websites, blogs
or online stores for you and your ideas.
Websites look professionally designed regardless
of skill level, no coding required.
Try Squarespace at squarespace.com/crashcourse
for a special offer.
Squarespace: share your passion with the world.
Crash Course Philosophy is produced in association
with PBS Digital Studios.

Estonian: 
Seega, ma olen selle peale mõelnud. Ma pole ikkagi kindel, et John pole robot.
See oli eriti Harry, kes tegi mulle arusaadavaks kui vähe me teame teiste peades toimuvast.
Aga kui tuleks välja, et Johni, sama Johni keda ma olen tundnud kogu oma elu,
sees oleks vere asemel mootoriõli, siis ta oleks ikkagi minu vend.
Täna õppisime me tehisintellektist, kaasa arvatud nõrk TI ja tugev TI,
ning mitmete mõtlejate viisidest tugevat TI-d defineerida.
Me arutlesime Turingi testi ja John Searle'i vastuse, Hiina Toa, üle.
Lisaks rääkisime me William Lycanist, Harryst ja mu vennast, ikkagi-võimalikust-aga-ebatõenäolisest androidist.
Järgmine kord vaatame me lähemalt probleemi, mis on tehisintellekti arutelu ääremaadel luusinud:
kas kellelgi meist on vaba tahe?
See episood toodi teieni Squarespace'i poolt.
Squarespace aitab luua veebilehti, blogisid ja netipoode sinu ja sinu mõtete jaoks.
Veebilehed näevad välja professionaalselt disainitud vaatamata oskuste tasemele, ilma kodeerimist vajamata.
Proovi Squarespace'i aadressil squarespace.com/crashcourse eripakkumise jaoks.
Squarespace: jaga oma kirge maailmaga.
Crash course filosoofia loodi koostöös PBS Digital Studiosega.

French: 
Alors .... J'y pensais. Je ne suis pas encore convaincu que John n'est pas un robot.
En effet, Harry a vraiment monter que nous ne savons pas réellement ce qui se passe à l'intérieur de nous même.
Mais si John - le John que je connais toute ma vie - se retrouve avec
de l'huile pour moteur plutôt que du sang, bien, il sera toujours mon frère.
Aujourd'hui nous avons appris apropos de l'intelligence artificielle, l'IA faible et forte,
et des manières diverses avec lesquels les penseurs ont essayé de définir l'IA faible.
Nous avons considéré le test de Turing, la réponse de John Searle à ce test et la chambre chinoise.
Nous avons parlé aussi de William Lycan, Harry et mon frère, l'Android possiblement mais pas probablement.
La fois prochaine, nous allons examiner une question qui se dissimulé autour de cette discussion sur l'intelligence artificielle:
est ce qu'on est libre ?
Cet épisode est présenté par Squarespace .
Squarespace aide à créer des sites Web , des blogs ou des magasins en ligne pour vous et vos idées .
Les sites semblent conçus par des professionnels quel que soit le niveau de compétence , aucun codage nécessaire.
Essayez Squarespace à squarespace.com/crashcourse pour une offre spéciale.
Squarespace : partagez votre passion avec le monde.
Crash Course Philosopy est produit en association avec PBS Digital Studios .

Arabic: 
إذًا، كنت أفكر في الأمر، ولا أزال غير مقتنع بأن أخي جون غرين ليس روبوتًا
في الواقع، يجعلنا هاري نفكر بأننا لا نعرف مالذي يدور بداخل أي منا.
لكن حتى لو أسقطنا ذلك على جون، وتبين أن هذا الشخص الذي عرفته طوال حياتي
يسري بداخله زيت بدلًا من الدم، فإنه سيبقى أخي
تكلمنا اليوم عن الذكاء الاصطناعي الضعيف والقوي،
الطرق العديدة التي حاول بها المفكرون تعريف الذكاء الاصطناعي.
رأينا اختبار تورينغ، ورد جون سيرل لهذا الاختبار، كما تعرفنا على الغرفة الصينية.
تحدثنا أيضًا عن ويليام لايكن، هاري وأخي، وعن احتمالية كونه روبوتًا.
في المرة القادمة، سنلقي نظرة على مناقشة الذكاء الاصطناعي
هل يملك أحدنا الإرادة الحرة؟
قدمت هذه الحلقة لكم برعاية سكوير سبيس
تساعدنا سكوير سبيس على صنع المواقع الإلكترونية، المدونات وحتى المتاجر الإلكترونية ولجميع أفكارك
تبدو المواقع التي تصممها احترافية بغض النظر عن المهارة
جرب سكوير سبيس على squarespace.com/crashcourse لأجل خدمة أفضل
سكوير سبيس: شارك شغفك  مع العالم.
كراش كورس للفلسفة تقدم بالمشاركة مع PBC ديجيتال ستوديوز

Chinese: 
所以…我经过思考。还是不确定约翰不是机器人。
其实，哈利确实说明，我们不知道任何他人的内部是如何运行的。
但如果最后证明约翰——我认识了一辈子的人——
体内流的不是血而是机油，好吧，他也依然是我的手足。
今天我们学习了人工智能，包括弱AI和强AI，
和哲学家们试图定义强AI的不同方式。
我们考虑了图灵测验和约翰·塞尔对其的回应，汉字屋论证。
我们也聊到了威廉·莱肯、哈利、还有我的哥哥——始终不知道是人是机的约翰。
下次课，我们将学习的课题对人工智能的讨论虎视眈眈：
我们有自由意志吗？
本集哲学速成课由Squarespace为您提供。
Squarespace能为你和你的想法，创建网站、博客乃至线上商店。
网站看似专业的设计并没有技术要求，不要求会编程。
登录Squarespace官网能获得特别服务。
Squarespace：与世界分享你的热情。
哲学速成课由PBS Digital Studios联合制作。

Portuguese: 
Então ... eu estive pensando sobre isso. Eu ainda não estou convencido John não é um robô.
Na verdade, Harry trouce para mim o ponto de que nós realmente não sabemos o que está acontecendo dentro de qualquer um de nós.
Mas se acontecesse que John - o John que conheci toda a minha vida -
Tem óleo de motor em vez de sangue dentro, bem, ele ainda seria meu irmão.
Hoje aprendemos sobre a inteligência artificial, incluindo AI fraca e AI forte,
E as várias maneiras pelas quais os pensadores tentaram definir uma AI forte.
Nós consideramos o teste de Turing, e a resposta de John Searle ao teste de Turing, o quarto chinês.
Também falamos sobre William Lycan, Harry e meu irmão, o ainda-possivelmente-mas-provavelmente-não andróide.
Na próxima , vamos examinar uma questão que tem estado à espreita em torno desta discussão da inteligência artificial:
Algum de nós tem livre-arbítrio?
Este episódio é trazido a você por Squarespace.
Squarespace ajuda a criar sites, blogs ou lojas on-line para você e suas idéias.
Websites parecem profissionalmente projetado independentemente do nível de habilidade, nenhuma codificação necessária.
Experimente o Squarespace em squarespace.com/crashcourse para uma oferta especial.
Squarespace: compartilhe sua paixão com o mundo.
Crash Course Philosophy é produzido em associação com PBS Digital Studios.

English: 
You can head over to their channel and check out a playlist of the latest episodes from shows like
PBS OffBook, The Art Assignment, and Blank
on Blank.
This episode of Crash Course was filmed in
the Doctor Cheryl C. Kinney Crash Course Studio
with the help of all of these awesome people and our equally fantastic graphics team is Thought Cafe.

Portuguese: 
Você pode dirigir-se a seu canal e confira uma lista de reprodução dos últimos episódios de programas como
PBS OffBook, The Art Assignment, e Blank on Blank.
Este episódio de Crash Course foi filmado no Doctor Cheryl C. Kinney Crash Course Studio
Com a ajuda de todas essas pessoas incríveis e nossa equipe gráfica igualmente fantástica Thought Cafe..

Chinese: 
你可以收听他们的频道去查看
PBS OffBook、The Art Assignment和Blank on Blank的最新集数。
本集速成课是在Doctor Cheryl C. Kinney Crash Course Studio拍摄的，
在这些牛人的帮助下完成，不要忘记负责动画制作的Thought Cafe和我们一样棒。

Arabic: 
للمزيد، زوروا قناة PBS Digital Studios واطلعوا على قائمة التشغيل لمشاهدة آخر الحلقات
برنامج أوف بوك التلفزيوني، آرت أسايمنتس و بلانك بلانك.
تم تصوير هذه الحلقة من كراش كورس في استوديو دكتور شيرل سي كيني كراش كورس
بمساعدة كل هؤلاء الأشخاص الرائعين وفريق الرسومات الرائعة.

Dutch: 
Bezoek hun kanaal en bekijk de laatste afleveringen van shows zoals
PBS OffBook, The Art Assignment, en Blank on Blank.
Deze aflevering van Crash Course is gefilmd in de Doctor Cheryl C. Kinney Crash Course Studio
met hulp van al deze geweldige mensen en ons even fantastisch grafisch team,  Thought Cafe.

French: 
Vous pouvez vous diriger vers leur chaîne et regardez une liste de lecture des derniers épisodes de spectacles comme
PBS OffBook, The Art Assignment, et Blank on Blank.
Cet épisode de Crash Course a été filmé dans le Doctor Cheryl C. Kinney Crash Course studio
avec l'aide de tous ces gens impressionnants et notre tout aussi fantastique équipe graphique : Thought Cafe.

Spanish: 
Puedes ir a su canal y echar un vistazo a una lista de reproducción de los últimos episodios de series como
PBS OffBook, The Art Assignment y Blank on Blank.
Este episodio de Crash Course fue filmado en Doctor Cheryl C. Kinney Crash Course Studio
con la ayuda de todas estas personas increíbles y nuestro igualmente fantástico equipo gráfico es Thought Cafe.

Estonian: 
Suundu nende kanalile ja vaata värskeid osasid saadetes nagu
PBS OffBook, The Art Assignment ja Blank on Blank.
See episood Crash Course filosoofiat filmiti Doctor Cheryl C. Kinney Crash Course stuudios
nende kõikide vingete inimeste abiga ja meie võrdselt vinged videotöötlejad on Thought Cafe.
