
Arabic: 
 
 
يبدو أن الفيزياء تخبرنا أنه من الممكن
أن نحاكي كامل الكون
على كمبيوتر أصغر من الكون
 
إذا أخذنا هذا المفهوم المجنون على محمل الجد
فكم يجب أن تكون قوّة هذا الكمبيوتر
 
وكم من الوقت يحتاج
صدّق أو لا تصدّق يمكننا معرفة هذا
إنتبه, أنا لست أقول أن الكون هو محاكاة
أنا أعني, ربما يمكن أن يكون, ولكن لست أقول هذا
وربما لا يوجد أي فرق
حتى لو كان هذا هو الكون البدائي الأصلي
بدلاً من مكان عميق في مهد المحاكاة
لا يزال بوسعنا التفكير بالميكانيزمية الكامنة للكون كعملية حوسبة
تخيّل كوناً حيث معظم مكوناته الأساسية
مجرّدة من محتواها, بجانب بعض الأفكار الثنائية عن الوجود أو عدم الوجود

English: 
[MUSIC PLAYING]
 Physics seems to be
telling us that it's
possible to simulate the
entire universe on a computer
smaller than the universe.
If we go along with
this crazy notion,
how powerful would that
computer need to be?
And how long would it take?
Believe it or not,
we can figure it out.
[MUSIC PLAYING]
Look, I'm not saying the
universe is a simulation.
I mean, it might be.
I'm just not saying it.
And perhaps, it doesn't
make any difference.
Even if this is the prime, the
original, physical universe,
rather than somewhere deep
in the simulation nest,
we can still think of our
universe's underlying mechanics
as computation.
Imagine a universe in which the
most elementary components are
stripped of all properties
besides some binary notion
of existence or nonexistence
like if the tiniest
chunks of space time or
chunks of quantum field
or elements in
the abstract space

English: 
of quantum mechanical states
can either be full or empty.
These elements interact
with their neighbors
by a simple set
of rules, leading
to oscillations, elementary
particles, atoms,
and ultimately to all of the
emergent laws of physics,
physical structure, and
ultimately the universe.
I just described the cellular
automaton hypothesis.
In this picture, the universe
is a multi-dimensional version
of Conway's game of life.
Such a universe could
be reasonably thought
of as a computation, cells
stripped of all properties
until they are indistinguishable
from pure information.
And together, they
form a sort of computer
whose sole task is to
compute its own evolution.
This may not be how
our reality works,
but it's an idea that many
physicists take seriously.
And even if we aren't
emergent patterns
of a cellular automaton, we can
think of any physical reality
as a computation, so long as
it's underlying mechanics are

Arabic: 
كمثلاً إذا كان أصغر جزء من الزمكان أو من الحقول الكمية هي عناصر في الفضاء المجرد للحالات الميكانيكية الكمية
وهذه العناصر إما مليئة أو فارغة
هذه العناصر تتفاعل مع جيرانها بواسطة مجموعة بسيطة من القواعد
مسببةً تذبذب الجسيمات الأساسية, الذرات وفي النهاية إلى كل قوانين الفيزياء الناشئة, التراكيب الفيزيائية
وفي النهاية الكون
أنا للتو وصفت فرضية الأوتومات الخلوي
في هذه الصورة الكون هو نسخ متعددة الأبعاد في لعبة كونواي الحياة
كون كهذا يمكن التفكير به وبشكل معقول كحوسبة
الخلية تتجرد من جميع الخصائص حتى تصبح غير متميزة من المعلومات النقية
وسويةً يشكلون نوع من الكمبيوتر حيث مهمته الوحيدة حساب التطور الخاص به
قد لا تكون هذه طريقة عمل واقعنا ولكنها فكرة يأخذها الكثير من الفيزيائيين بجدية
وحتى إذا لم تكن نمط طارئ من الأوتومات الخلوي
يمكننا التفكير بأي حقيقة فيزيائية كحوسبة

Arabic: 
طالما أن الميكانيكة الأساسية لها هي قواعد تعتمد على التطور عبر الوقت
وهذا يتضمن معظم صياغات ميكانيكا الكم ومقترحات لنظريات لكل شيء
سنعود إلى سؤال هل الكون كمبيوتر
وسننظر إلى فكرة الأوتومات الخلوي والحوسبة الشبكية
وبالعموم إلى فكرة الفيزياء الرقمية وكون المعلومات
ولكن اليوم لنجيب عن سؤال بسيط
إذا كان الكون كمبيوتر فكم هي قوّته
وبسؤال أكثر متعة
هل يمكنك بناء كمبيوتر داخل هذا الكون لمحاكاة هذا الكون
في الإجابة عن هذا السؤال سنجيب أيضاً عن سؤال التحدي السابق, وأشجعك على مشاهدة تلك الحلقة -(وهي مترجمة إلى العربية)- قبل أن تشاهد هذه
قوّة الكمبيوتر يمكن تقسيمها إلى قسمين
كم من المعلومات التي يمكن أن يخزنها, وكم هي السرعة التي يمكنه بها أن يجري عمليات حسابية على هذه المعلومات
قوانين الفيزياء تشخّص الحد الأساسي لكليهما
الأول سعة ذاكرة الكون

English: 
rules-based evolution over time.
That includes most formulations
of quantum mechanics
and proposals for
theories of everything.
We'll come back to the question
is the universe a computer,
and we'll look at
cellular automata
and pan computationalism
and, in general,
the idea of digital physics
and an informational universe.
But today, let's answer
a simple question.
If the universe is a computer,
how good a computer is it?
And an even more fun question--
could you build a computer
inside this universe
to simulate this universe?
In answering this, we'll also
answer the recent challenge
question.
And I encourage you
to watch that episode
before you watch this one.
The power of a computer
can be crudely broken down
into two things.
How much information
can it store?
And how quickly can it
perform computations
on that information?
The laws of physics prescribe
fundamental limits on both.
The first one, the memory
capacity of the universe,
is a topic we've looked at.

English: 
It's defined by the Bekenstein
bound, which tells us
the maximum information
that can be stored
in a volume of space is
proportional to the surface
area of that volume.
Specifically, it's the
number of tiny Planck areas
you can fit over that
surface area divided by 4.
It was in studying black holes
that Jacob Bekenstein realized
that they must contain the
maximum possible amount
of hidden information, the
maximum possible entropy.
If you fill a region of the
universe with information
equal to its Bekenstein
bound, it'll immediately
become a black hole.
We saw in our episode on
the information content
of the universe that
the maximum information
content, the Bekenstein bound,
of the observable universe
is around 10 to the power of 120
bits based on its surface area.
At the same time, the
actual information content
in matter and radiation
is probably more like 10
to the power of 90 bits,
roughly corresponding
to the number of particles
of matter and radiation.

Arabic: 
وهو موضوع قد نظرنا إليه, وهو معرّف بواسطة حد بيكنشتاين
والذي يخبرنا أن الحد الأعلى من المعلومات التي يمكن أن يخزن في حجم معين من الفضاء يتناسب مع المساحة السطحية لهذا الحجم
وبشكل خصوصي إنه عدد مساحات بلانك الصغيرة التي يمكنك وضعها فوق هذا السطح مقسمة على أربعة
عندما كان بيكنشتاين يدرس الثقوب السوداء أدرك أنها يجب أن تحوي على أقصى قدر ممكن من المعلومات الخفيّة
أعلى قدر ممكن من الإنتروبيا
إذا ملأت منطقة من الكون بالمعلومات بقدر مساوٍ لحد بيكنشتاين
ستصبح هذه المنطقة على الفور ثقب أسود
شاهدنا في حلقتنا عن محتوى المعلومات في الكون
أن المحتوى الأعظم من المعلومات -(أي حد بيكنشتاين للكون المرصود)-
هو بحوالي 10^120 بت بالإعتماد على المساحة السطحية
وبنفس الوقت محتوى المعلومات الفعلي من المادة والإشعاعات
هو على الأرجح بحوالي 10^90 بت
يقابل تقريباً عدد جسيمات المادة والإشعاعات

English: 
Bizarrely, the
Bekenstein bound suggests
that we could hold
all of the information
in the observable universe
within a storage device
smaller than the observable
universe, which brings us
to the first part of
the challenge question.
Assuming you can
build a computer
that stores information
at the Bekenstein bound,
essentially, your memory
device is the event horizon
of a black hole.
How large would
that black hole need
to be to store all
of the information
about all of the
particles in the universe?
We'll figure out the
case for just matter
and for matter and radiation.
So there is something like 10
to the power of 80 hydrogen
atoms in the universe.
If we instead count all the
elementary particles with mass,
we might get 10 to
the 81 particles.
But let's just go with a nice,
round order of magnitude--
10 to the 80 bits assuming
1 bit per particle.
Again, the Bekenstein bound is
the event horizon surface area
in Planck areas with an
extra factor of a quarter
that Stephen
Hawking figured out.

Arabic: 
بشكل غريب, حد بيكنشتاين يقترح أنه يمكننا أن نحمّل كل المعلومات في الكون المرئي
بأداة تخزين أصغر من الكون المرصود
وهذا يقودنا إلى الجزء الأول من سؤال التحدي
إفترض أنه يمكنك بناء كمبيوتر يخزن المعلومات في حد بيكنشتاين
وبشكل خصوصي أداتك التخزينية هي أفق حدث الثقب الأسود
كم يجب أن تبلغ ضخامة هذا الثقب الأسود ليخزن كل المعلومات حول كل الجسيمات في الكون
سنكتشف هذا في حالة المادة فقط وفي حالة المادة والإشعاعات
حسناً هناك حوالي  (10^80)
ذرة هيدروجين في الكون
إذا حسبنا بدلاً من هذا كل الجسيمات الأساسية مع الكتلة
قد نحصل على (10^81) جسيم
ولكن دعونا نذهب بجولة لطيفة من التقريب...
(10^80) بت بفرض 1 بت لكل جسيم
مرّة أخرى حد بيكنشتاين هو
المساحة السطحية لأفق الحدث  بمساحات بلانكية
مع ربع إضافي إكتشفه ستيفن هوكنج

English: 
So our Bekenstein bound hard
drive needs to be roughly 4
by 10 to the power of 80 Planck
areas, corresponding to 40
billion square meters.
That corresponds to a spherical
black hole with a radius
around 100 kilometers.
So informationally
speaking, you could
store the entire
observable universe
of non-radiation
particles on the surface
area of a black hole
the size of Switzerland.
The radius I gave is the
Schwarzschild radius,
the radius of the event horizon
of a non-rotating neutral black
hole, again, like Switzerland.
It's directly
proportional to its mass.
The mass of a 100
kilometer radius black hole
would be 30 times
that of our sun.
It's a hard drive the size of
a picturesque European nation
with the mass of the heaviest
stars in the universe
and with the storage
capacity to register
every atom in the universe,
not exactly portable,
but you'd never need
to defrag again.
If you want to include photons,
neutrinos, dark matter, et

Arabic: 
وبالتالي قرصنا الصلب بحد بيكنشتاين يحتاج أن يكون
ب(4 *10^80) مساحة بلانكية
بشكل يتوافق مع (40) مليار متر مكعب
وهذا يتوافق مع ثقب أسود كروي
مع نصف قطر بحوالي (100) كيلومتر
إذا وبصيغة معلوماتية, يمكنك
تخزين كامل الكون المرصود ذو الجسيمات الغير إشعاعية
على مساحة سطحية من الثقب الأسود
بحجم سويسرا, نصف القطر الذي أعطيته
هو نصف قطر شوارزشيلد, نصف القطر لأفق حدث
ثقب أسود حيادي غير دوّار
مرّة أخرى كسويسرا, ويتناسب بشكل مباشر
مع كتلته, كتلة ثقب أسود بنصف قطر (100) كيلومتر
ستكون بحوالي (30) ضعف كتلة شمسنا
قرص صلب بحجم أمة أوروبية رائعة
مع كتلة أثقل نجم في الكون
ومع سعة تخزينية
لتسجيل كل ذرّة في الكون
ليس بالضبط المحمولة, ولكن لن تحتاج بتاتاً
إلى التجزئة مرّة أخرى, إذا أردت أن تشمل الفوتونات

English: 
cetera, and not
just atoms, you need
to scale up the surface area
by a factor of 10 billion
and the radius by a
factor of 100,000.
You'd need a black hole a
few million times the mass
of the sun and 10 million
kilometers in radius.
That's pretty close to the size
of the supermassive black hole
in the center of the Milky Way.
Now those are some
big masses from
our puny human perspective.
But remember, we're storing
all of the information
in the universe on just
one of these black holes.
That is quite the zip file.
Storing all of the information
in the universe is one thing,
but a real computer
must compute.
Every instant in time must
progress to the next instant.
Every quantum state
must be processed
into the following state.
There's a fundamental limit
to the speed with which
quantum states can change.
The Margolus-Levitin theorem
tells us the maximum rate
at which the quantum states
of a system can shift
into completely independent
quantum states or orthogonal
states in quantum jargon--

Arabic: 
النيوترينو, المادة المظلمة...الخ, وليس فقط الذرات
فستحتاج إلى أن تزيد المساحة السطحية بحوالي (10) مليار
وأن تزيد نصف القطر بحوالي (100.000) ألف
أنت تحتاج لثقب أسود ببضعة ملايين أضعاف كتلة الشمس
وبنصف قطر (10) مليون كيلومتر
وهذا قريب جداً من حجم الثقب الأسود الفائق الضخامة
في مركز مجرة درب التبانة, حسناً هؤلاء
ذو كتلة كبيرة من وجهة نظر بشرية واهنة/محدودة
ولكن تذكر نحن نخزن كل المعلومات
في الكون على أحد هذه الثقوب السوداء
وهذا أشبه بملف ضغط ZIP
تخزين كل المعلومات في الكون هو أحد الأشياء, ولكن
الكمبيوتر الحقيقي عليه أن يحسب
كل لحظة في الوقت عليها أن تتقدم إلى اللحظة التالية
وكل حالة كمية يجب معالجتها
إلى الحالة التي تليها, هناك حد أساسي
للسرعة التي تستطيع من خلالها الحالة الكمية أن تتغير -(أو لسرعة تغير الحالة الكمية)-
نظرية ماغوليوس ليفتن تخبرنا
بالمعدل الأقصى حيث الحالة الكمية للنظام
يمكنها أن تنزاح
إلى حالات كمية مستقلة تماماً
أو إلى حالات متعامدة في المصطلحات الكمية

English: 
the radius proportional to the
average energy of the system.
And that makes some
intuitive sense.
The more energy in the
system, the quicker
it's quantum states can evolve.
This maximum rate
of state changes
is also the maximum speed
of logical operations
for any computer.
For example, a
simple quantum system
would be a group of electrons
with spins pointing up or down,
corresponding to a single
bit the information each.
Flipping the spin
of an electron is
a change to an orthogonal
state, but it can also
be thought of as a
single operation,
in this case, the not operation.
This sort of quantum spin
array is exactly the system
used in most quantum computers.
And so the Margolus-Levitin
theorem also
gives us the speed
limit of operations
in quantum computing, in
fact, for any computing,
but only quantum
computing can expect
to get close to this limit.
Using this theorem,
we can also figure out
the computational capacity
of the entire universe.

Arabic: 
نصف القطر يتناسب مع متوسط
طاقة النظام, وهذا يصنع حدث بديهياً نوعاً ما
كلما كانت الطاقة في النظام أكثر
كلما تطورت الحالات الكمية بشكل أسرع, هذا المعدل الأقصى
من تغير الحالات هو أيضاً السرعة القصوى
للعملية المنطقية لأي كمبيوتر
على سبيل المثال, نظام كمي بسيط
سيكون مجموعة من الإلكترونات مع غزل يشير بإتجاه الأعلى أو الأسفل
متوافقاً مع بت وحيد من المعلومات لكل منهما
قلب غزل الإلكترون هو التغيير
إلى الحالة المتعامدة ولكن أيضاً يمكن
إعتباره كعملية وحيدة
في هذه الحالة لا عملية
هذا النوع من نسق الغزل الكمي
هو بالضبط مايستخدمه النظام في معظم الكمبيوترات الكمية
وبالتالي نظرية ماغوليوس ليفتن
أيضاً تعطينا حد سرعة العمليات
في الحوسبات الكمية, في الحقيقة
لأي عملية حوسبة, ولكن فقط الحوسبة الكمية يمكن توقعها
لأن تكون قريبة من هذا الحد, بإستخدام هذه النظرية
يمكننا أيضاً أن نكتشف القدرة الحسابية للكون كاملاً

English: 
This follows a
paper by Seth Lloyd
that I pointed you to in
the challenge question.
For the energy of
the system, we use
the mass of the observable
universe, around 10
to the power of 52
kilograms, and then
apply good old e equals
mc squared to get energy.
We get that, if every single
particle in the universe
were used to make
a computation, it
should process 5 by 10 to the
power of 102 logical operations
per second, not bad.
That's why the
universe can dial up
its graphic settings so high.
The universe has been around for
13.8 billion years or 4 by 10
to the power of 17 seconds.
So it could have
performed around 10
to the power of 120
operations in that time.
And that's actually independent
of the number of particles
or degrees of
freedom the universe
is using to do that computation.
The number is based
on its energy content,
and it has to spread
that computational power
over its particles.

Arabic: 
هذا يبتع بورقة من قبل شيث لويد
والتي أشرت إليها في سؤال التحدي
لطاقة النظام نحن نستخدم كتلة
الكون المرصود أي حوالي (10^52) كيلوغرام
وبعدا نطبق (E=mc^2)
لنحصل على الطاقة
نحصل على أنه إذا كان كل جزيء مفرد في الكون قد إستخدمناه
لصنع الحوسبة, فيجب أن تعالج
(5*10^102)
عملية منطقية بالثانية
ليس سيئاً
وهذا هو السبب في أن الإعدادات الرسومية للكون
عالية جداً
الكون كان موجوداً
منذ حوالي (13.8) مليار سنة
أو (4*10^17) ثانية
وبالتالي يمكنه أن ينفذ حوالي (10^120)
عملية في ذلك الوقت
وهذا في الحقيقة مستقل عن عدد الجسيمات
أو درجات الحرية التي يستخدمها النظام لإجراء هذه الحوسبة
الرقم يعتمد على
محتوى الطاقة, ويجب أن تنتشر
تلك القوّة الحسابية على هذه الجسيمات

English: 
On the other hand, our
Switzerland-sized black hole
computer is a little slower.
Instead of using the
mass of the universe
to figure out the
computation speed,
we only have 30 solar masses.
It can do 3 by 10 to the power
of 82 logical ops per second,
a factor of 10 to
the power of 20
slower than the computational
speed of the whole universe.
Assuming the universe is
computing its own evolution
at maximum speed, our
black hole computer
would take a factor of 10 to
the power of 20 longer or 10
to the power of 30 years
to simulate the universe
to the present day.
Protons will have
started to decay
by the time we
simulate last Monday.
Our supermassive black
hole scale computer
does a bit better, taking only
10 to the power of 25 years.
I don't know-- maybe if
we turn off anti-aliasing?
Again, this assumes that
we needed all of those 10
to the power of 120 ops.
We can instead estimate
the computational history
of the universe by assuming
that all entropy generated

Arabic: 
ومن ناحية أخرى, ثقبنا الأسود الذي بحجم سويسرا هو بطيء قليلاً
بدلاً من إستخدام كتلة الكون لمعرفة
سرعة الحوسبة, نحن لدينا فقط (30) كتلة شمسية
يمكنه إنجاز
(3*10^82) عملية منطقية بالثانية
وهذا أصغر ب (20) مرّة من
سرعة حوسبة الكون كاملاً
بفرض أن الكون يحسب تطوره بالسرعة القصوى
فإن كمبيوتر الثقب الأسود الخاص بنا
سيأخذ وقت أكثر حتى (10^20) مرّة
أو (10^30) سنه
ليحاكي الكون إلى الأيام الحالية
البروتونات سوف تبدأ بالإنحلال
بالوقت الذي نحاكي فيه الإثنين الماضي
ثقبنا الأسود الفائق الضخامة والذي بحجم كمبيوتر يفعل هذا بشكل أفضل قليلاً
مستغرقاً فقط (10^25) سنه
لا أعلم ربما إن أطفأنا حوسبة الفضائيون المعاكسة
حسناً, هذا يفرض أننا بحاجة إلى
كل هذه ال(10^120) عملية
 
يمكننا بدلاً من هذا أن نقدر التاريخ الحوسبي للكون بفرض أن
كل الإنتروبيا المتولدة عبر تاريخ الكون

Arabic: 
تأتي من الحوسبة الداخلية
حد لانداور يعطي الإنتروبيا اللازمة
للحوسبة وبتقريب قريب جداً
هي (1) بت للإنتروبيا لكل عملية
المادة والإشعاعات مجتمعة لها إنتروبيا
بمقدار (10^90) بت
وبالتالي ربما عالجت (10^90) عملية منذ الإنفجار العظيم
كمبيوتر بحجم ثقب أسود صغير يمكنه أن ينجز هذا
بسنه واحدة, أما ثقب أسود أكبر فب(5) دقائق
لسوء الحظ يمكنك فقط قراءة نتائج المحاكاة
في إشعاعات هوكنج
بينما تتبخر هذه الثقوب, وهذا سيستغرق
(10^70) سنه كحد أدنى
 
ولكن تمهل يمكنك محاكاة (10^70) كون في هذا الوقت
حسناً نتائج مختلفة بشكل واسع
تعتمد على إفتراضاتك, بالمناسبة
الحصول على نتائج محاكاتك سيستغرق للأبد بشكل حرفي
 
بعضكم أعطى أجوبة قريبة من هذه بطرق عبقرية متنوعة

English: 
over the history of
the universe comes
from its internal computation.
The Landauer limit gives the
entropy cost for computation.
And approximating
very crudely, it's
1 bit of entropy per operation.
Matter and radiation combined
have an entropy of 10
to the power of 90 bits.
So maybe they processed 10 to
the 90 ops since the big bang.
Our small black
hole computer could
do that in a year and our
big one in five minutes.
Unfortunately, you can only
read out the simulation results
in Hawking radiation
as those black holes
evaporate, which will take 10 to
the power of 70 years minimum--
hell of an input-output
bottleneck.
But hey, you could
simulate 10 to the power
of 70 universes in that time.
OK, so wildly different results
depending on your assumptions--
by the way, getting your
results of the simulation
will take forever,
nearly literally.
Some of you gave
answers close to these
by various ingenious methods.

English: 
We chose six correct
enough responses
at random listed below.
If you see your name,
you are a lucky winner
of a space-time t-shirt.
Shoot us an email at
pbsspacetime@gmail.com with
your name, address,
US t-shirt size--
small, medium,
extra extra large,
whatever-- and let us
know which tee you'd like.
For me, the big takeaway
from this exercise
isn't so much the numbers, which
are enormous and hard to get
our heads around.
It's first that
our universe can be
simulated within the universe.
I suppose that has implications
for the simulation hypothesis.
But I remain dubious.
It's not clear that programming
and then reading out
from an event horizon
computer is even possible.
What blows my mind
even more is that we
can use our current incomplete
understanding of physics,
in particular very standard
ideas on general relativity
and quantum mechanics,
to figure out
the computational
properties of our universe.
This will be important as
quantum computers develop.

Arabic: 
بإختيار 6 أجوبة صحيحة كافية بشكل عشوائي
وهذه هي
إذا رأيت إسمك فأنت رابح محظوظ
ببلوزة نص كم من SpaceTime
ترجمة: علي إبراهيم Ali M Ibrahem
Twitter:@96_alimibra
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
And these insights may also
lead to real paradigm shifts,
perhaps ultimately revealing
the fundamentally informational
nature of space time.
Last week, we looked at
an amazing new result
in which gravitational
waves were
used to search for and
rule out the existence
of an extra spatial dimension
beyond our familiar three.
Let's discuss.
Glenn Stern asks about the fact
that the gravitational waves
from this neutron star
merger arrived two seconds
before the light
from the merger.
How then can we say that
the gravitational waves
and the light traveled
at the same speed?
Daniel Morra had an
insightful answer.
Those gravitational
waves and that light
traveled a crazy long distance,
40 megaparsecs or around 150
million light years.
Surely, the very low density
of gas along that vast distance
slowed down the
light a little bit,
effectively increasing the
index of refraction of space,

Arabic: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Arabic: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
in the same way that light
is slowed in air or water.
Well, Daniel is right.
Light traveling through
space is slowed down
from the full light speed
of the perfect vacuum.
That led to the radio
emission arriving hours
after the gravitational waves.
But that's radio, which
can interact strongly
with the rare charged
electrons and protons
in intergalactic space.
Gamma rays should be barely
slowed down at all, far less
than the measured two-ish
seconds time delay.
That two seconds delay was
actually due to the fact
that the kilonova explosion
from the neutron star merger
started slightly after the
gravitational wave signal.
The gravitational waves
start to get strong
before the neutron
stars even make contact.
But you don't see the
electromagnetic explosion
until the merger.
Pavlos Papageorgiou
said something cool.
Let me just quote.
"Null results are the best.

Arabic: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

English: 
Science works by
forcification, and null results
rule out huge chunks
of theory space,
greatly advancing our certainty.
The Eotvos experiment,
Michelson-Morley,
and the double-slit experiment
were all intensely exciting
because they let us put
narrower constraints on the way
the universe can behave."
It's such a good point.
So much attention is given
to crazy new discoveries,
but the hard work goes into
critical non-discoveries,
and it's all too often ignored.
Squirrel Bacon is bothered when
people use the term dimension
to refer to parallel universe.
Hell yeah, that really bugs me.
An extra dimension would
add infinite layers
to the current universe, while
a parallel universe would just
add a single
separate 3D universe.
Seriously, Hollywood
screenwriters really
need to hire Space
Timers as consultants
to get their terminology right
and pay us lots of money.
Nameless wonders
whether, in a 2D world,

English: 
are there line Earthers.
Don't believe NASA sheeple.
Left and right are a conspiracy.

Arabic: 
 
 
 
