Eu não estou criando nenhuma
teoria da conspiração, nada do tipo.
Então...
Então, desenvolvedores do YouTube,
bem-vindos de volta ao meu canal.
Hoje, eu vou falar de um assunto aqui
que talvez vocês já estejam
enjoados de ouvir falar,
e é da inteligência artificial que
está indo longe demais: é do GPT-3.
Eu estou cansado dessa coisa toda!
Eu preciso dar a minha opinião e para fazer
isso, eu gostaria de contar uma história.
Em 2007, eu estava entrando no
mercado de trabalho como programador.
Eu consegui o meu
primeiro emprego,
a minha primeira
oportunidade como freelancer.
E o projeto era criar um
sistema de agendamento
de instalação de
antenas de TV a cabo.
Logo de início, nesse projeto,
eu compreendi que o meu papel lá
ia muito além de escrever
somente linhas de código...
Para trazer algo para o mundo
digital, algo que já estava sendo feito
através de planilhas e centenas
de formulários impressos.
A gente teve que ir muito para o
quadro branco, desenhar a nossa solução,
criar funcionalidades
e ver essas funcionalidades
sendo mal utilizadas pelo usuário,
até que a gente
descobriu como fazer
a abstração correta de algo
que já estava sendo feito,
um processo já estabelecido
fora do digital para o mundo digital.
E eu estou contando essa história
para vocês por dois motivos.
O primeiro, para dizer que essa
minha oportunidade de emprego,
o primeiro emprego
do Lucas Montano,
hoje não se faria mais necessário,
provavelmente eu não conseguiria esse job.
E o segundo motivo é o
porquê eu acredito que, em 2020,
você deve parar tudo o
que você está estudando
para focar e em
aprender tecnologia.
Então, o Lucas Montano de 2007
perdeu o emprego para quem, afinal?
Se você acompanha as notícias de
influenciadores no mercado de tecnologia,
você já está sabendo
dessa inteligência artificial
baseada no modelo GPT-3, você já
ouviu falar em GPT-3, provavelmente.
GPT-3 é um modelo de linguagem
criado pela empresa OpenAI.
O que é um modelo de linguagem?
Basicamente é uma 
distribuição probabilística.
É parecido com o teu autocomplete
keyboard do seu celular,
do seu computador, 
mas muito mais poderoso.
De forma simplificada,
a gente pode dizer que um modelo
de linguagem treinado gera texto.
No caso do GPT-3, ele é o
resultado de um intenso treinamento
feito com mais de 
175 bilhões de parâmetros.
Eu falei com B, 
175 bilhões de parâmetros.
E o GPT-3 vai usar esses parâmetros
que foram extraídos da internet,
de livros, para tentar adivinhar a
próxima palavra que ele tem que te dar.
Para que você possa
entender o que são parâmetros,
você pode imaginar que o
GPT-3 extraiu de um livro:
cores, adjetivos, pressão atmosférica,
uma tabela de temperatura, datas,
nomes de autores, 
tudo isso são parâmetros.
Agora, você imagina isso aos bilhões.
E essa quantidade de 
parâmetros tem um limite.
Existe um limite pelo
qual a gente pode continuar
crescendo o número de parâmetros 
num modelo de linguagem.
O GPT-2, que veio antes do GPT-3,
foi treinado com 1.5 (se eu não 
me engano) bilhões de parâmetros.
E quando a OpenAI,
a empresa que está
por trás desse modelo,
descobriu que esse
ainda não era o limite,
ela multiplicou por 100 vezes a quantidade
de parâmetros para criar o GPT-3.
Mas por que eu estou 
falando de limite?
Eu vi um exemplo bem bacana
de um cara chamado Rob Miles
e ele falou o seguinte...
Eu dei uma modificada para dar um
exemplo um pouco mais realista,
mas é basicamente esse o exemplo...
Imagina que a gente tem um avião,
o maior avião construído pela
humanidade: o A380.
Sim, eu consultei qual era o maior
avião atualmente construído
comercialmente pela humanidade,
e é o A380, ele tem capacidade
de transportar 850 passageiros.
Agora, imagina que você
quer dobrar essa capacidade,
dobrar o resultado dessa
construção do avião.
Você não pode simplesmente 
dobrar o tamanho do avião.
Vai chegar um momento em que você
não pode ficar dobrando o tamanho do avião.
Chega um momento em que você 
tem que mudar a abordagem.
A questão é que com o GPT-2 e o GPT-3, 
esse momento ainda não chegou.
O modelo de linguagem
ainda está em crescimento,
ainda está melhorando com base no
crescimento dos inputs de parâmetros.
Entenda que a cada parâmetro que você
coloca para treinar o modelo de linguagem,
a gente tem um aumento 
muito significativo no resultado.
Então, do GPT-2 para o GPT-3 foram
100 vezes o número de parâmetros
e a gente ainda
não chegou no limite.
E ele é um dos mais caros já
criados, já treinados na história:
US$12 milhões para gerar esse modelo.
Atualmente, a empresa OpenAI está liberando
acesso à essa API de forma controlada...
E olhando para quem ela está
liberando diz muito, ao meu ver,
sobre a estratégia da empresa em
termos de posicionamento de mercado,
em termos de público-alvo, em
termos de marketing de crescimento.
A maioria dos exemplos que
a gente tem visto na internet
tem sido feitos por um cara
chamado Sharif Shameem.
Pelo menos os exemplos que mostram
como o GPT-3 pode ser utilizado
para gerar código, para escrever
um aplicativo web, e assim por diante.
E eu tenho uma curiosidade bem
interessante sobre como a OpenAI
está liberando o acesso 
nesse momento.
Eu estava dando uma olhada
na origem da empresa OpenAI
e eu achei um artigo da Wired que
diz que ela foi anunciada em 2015
e como (coach airs?), como os
dois caras que sentavam na cadeira
para tomar as decisões, 
estava o Elon Musk e o Sam Altman.
O Elon Musk você provavelmente já
conhece da SpaceX, da Tesla...
Mas o Sam Altman talvez 
você ainda não conheça.
E ele é o ex-CEO da Y Combinator.
O cara que hoje é o CEO da
OpenAI é ex-CEO da Y Combinator,
uma empresa que já tinha ajudado uma
ex-startup fundada pelo Sharif Shameem,
que hoje está gerando os
exemplos com base na API,
que foi liberada de forma
controlada para algumas pessoas.
Eu não estou criando nenhuma
teoria da conspiração, nada do tipo.
Eu só quero que vocês entendam uma
coisa que eu sempre falo aqui no canal.
Por trás de uma
tecnologia de um framework,
de uma nova biblioteca, de uma IDE,
sempre tem um interesse comercial.
Seja através de um evento ou de
uma palestra que você foi...
Ou agora, como a gente está na
quarentena, a gente não pode ir em eventos,
há showcases na internet de
como coisas são impressionantes.
Então, o que eu estou querendo dizer
aqui é que as pessoas que estão recebendo,
pelo menos as que eu vi que estão
recebendo esse early access para a API,
o acesso antecipado
a essa API do OpenAI
são pessoas da rede 
de networking da Y Combinator.
E o que eu posso te dizer é que
essa rede de networking é superforte
e o Sam Altman sabe muito
bem o que está fazendo.
Os caras lá são bons 
mesmo em crescimento.
E a linha de raciocínio que eu
queria chegar aqui é a seguinte...
Na minha opinião, eles estão buscando
chamar a atenção de especialistas,
porque são esses 
especialistas, eu, você...
Que vão acabar criando e
colocando essa tecnologia em prática,
resolvendo um problema que o
mercado está demandando.
Não existe inovação sem
uma demanda no mercado,
sem o usuário para usar
a tua grande inovação.
Então, a OpenAI precisa sim fazer o
buzz para chamar a atenção de especialistas
para ter cada vez
mais mentes brilhantes,
pensando em como utilizar esse
modelo de linguagem no mundo real.
"Lucas, você tem medo que
o GPT-3 tire o seu emprego?"
Não, eu não tenho medo.
"Mas Lucas, você acha que isso pode
vir a acontecer daqui a dez, 20, 30 anos?"
Também não.
Eu não acho que
isso vai acontecer,
pelo menos não enquanto eu estiver
interessado em trabalhar como programador.
Eu sou um pouco cético em relação
à uma inteligência artificial
roubar empregos de programadores,
porque no dia que isso acontecer,
eu acho que não vou mais ver
motivo para que exista programadores.
E sinceramente, eu não
sei o que eu gostaria de ser
em um mundo onde a gente não
consegue diferenciar uma música composta
por uma inteligência artificial 
ou por um humano.
No início do vídeo, falei que
o Lucas Montano de 2007
teria perdido o seu emprego.
Eu não sei o que está apitando 
ali no computador...
Sim, eu teria perdido o meu
emprego, mas não para o GPT-3.
Eu teria perdido aquele meu
emprego de 2007 para várias soluções
que já existem no mercado
em formas de SaaS,
várias soluções que entregam um
software configurável de agendamento
com base em pagamentos mensais.
Não faria mais sentido para
o meu cliente pagar um freela
e desenvolver o projeto do zero.
Então, no máximo, 
eu seria um intermediador
entre o meu cliente achar
a melhor solução para ele,
mas eu não teria desenvolvido 
e escrito o software.
Talvez aquele meu cliente
não consiga dar instruções
para uma
inteligência artificial,
mas ele consegue arrastar
componentes para a tela
e migrar uma planilha para uma base
de dados só dando dois cliques na tela.
Bom, o segundo motivo pelo
qual eu quis contar essa história
é o porquê eu ainda acredito que você
deve entrar na área de tecnologia em 2020,
independente das ferramentas de
low code, no code tomarem a cena
ou da inteligência artificial, 
seja o GPT-3, o quatro, o cinco, o mil...
Dar um LeapFrog
nessas plataformas,
fazendo com que o
usuário final tenha acesso
e conhecimento da
inteligência artificial
antes mesmo das plataformas 
low code, no code...
Independente disso, o futuro está
sendo construído com base na tecnologia.
Vamos deixar isso claro, então.
A gente sabe que o futuro 
é a tecnologia.
Então, você tem dois caminhos:
ser ignorante a
respeito de tecnologia
ou ser quem vai criar e dar
manutenção para essa tecnologia.
Se você acredita que tudo
isso que está surgindo aí
vai roubar o seu
emprego de programador,
o seu emprego de
especialista em tecnologia,
o que sobra para o seu atual emprego,
que talvez atualmente não
exija nada de tecnologia?
Eu não entendo essa linha
de raciocínio de ter medo
que os programadores
percam o emprego.
Porque no momento em que o
programador perder o emprego,
não precisar mais fazer manutenção,
qual o emprego que você
está pensando em mente
que não seria também roubado
pela inteligência artificial?
Não faz sentido!
E mesmo que eu perca o
emprego para a inteligência artificial,
pelo menos eu vou estar entendendo
o que ela está fazendo por trás.
Eu acredito.
E eu tenho mais duas observações
aqui para dar a vocês,
dois pensamentos que eu tive agora...
Mas vai deixando aqui
embaixo o teu comentário
do que você acha que aconteceria
se o cliente pedir para a
inteligência artificial fazer algo,
e ela fazer exatamente
o que ele está pedindo.
Bom, as duas observações
que eu tenho para quem diz
que os programadores vão programar
através do GPT-3 em inglês é o seguinte...
Se você acha o Java "verboso",
imagina o inglês?
Se o compilador e o interpretador
precisa de um ponto e vírgula,
de uma quebra de linha, de um
espaço para resolver ambiguidades,
imagina você ter que saber usar virgula
correta na tua explicação para o GPT-3?
Para mim não faz muito sentido.
Um forte abraço e eu
te vejo no próximo vídeo,
agora com certeza, porque
você clicou no botão Inscrever-se
e clicou no sininho, tá bom?
Valeu!
