{"id":1805,"date":"2019-11-12T18:08:52","date_gmt":"2019-11-12T18:08:52","guid":{"rendered":"http:\/\/gotodata.com.br\/site\/?p=1805"},"modified":"2019-11-12T18:08:52","modified_gmt":"2019-11-12T18:08:52","slug":"um-algoritmo-escreveu-este-texto","status":"publish","type":"post","link":"https:\/\/gotodata.com.br\/web\/um-algoritmo-escreveu-este-texto\/","title":{"rendered":"Um algoritmo escreveu este texto"},"content":{"rendered":"<h3><span style=\"font-weight: 400;\">Na verdade, apenas parte deste texto foi escrito por uma m\u00e1quina, mas elas est\u00e3o se esfor\u00e7ando para chegar l\u00e1.<\/span><\/h3>\n<p>&nbsp;<\/p>\n<p><span style=\"font-weight: 400;\">Pode parecer fic\u00e7\u00e3o cient\u00edfica, mas j\u00e1 existem sistemas de intelig\u00eancia artificial capazes de criar textos com incr\u00edvel semelhan\u00e7a aos escritos por humanos. <\/span><span style=\"font-weight: 400;\">Alguns deles incluem coisas como piadas e poemas. Outros s\u00e3o muito mais s\u00e9rios. Um exemplo recente da Universidade de Oxford cont\u00e9m uma poesia sobre o exterm\u00ednio de judeus por Hitler.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">&#8220;Se um ser humano tem uma forte antipatia por um grupo em particular, \u00e9 muito improv\u00e1vel que ele seja capaz de escrever um poema sobre isso, mas a IA pode faz\u00ea-lo&#8221;, diz Robert Morris, que estuda intelig\u00eancia artificial na Universidade de Oxford.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A afirma\u00e7\u00e3o na primeira frase deste artigo pode inspirar desconfian\u00e7a. \u201c\u00c9 um exagero, n\u00e3o devem haver sistemas assim t\u00e3o bons!\u201d, podemos pensar. Mas o trecho seguinte, citando piadas e poemas e contendo a afirma\u00e7\u00e3o de Robert Morris \u2013 pesquisador fict\u00edcio \u2013 <strong>foi escrita em quest\u00e3o de segundos por um algoritmo<\/strong> criado pela <a href=\"https:\/\/openai.com\/\">OpenAI<\/a>.\u00a0<\/span><\/p>\n<p>Base da programa\u00e7\u00e3o, um algoritmo\u00a0\u00e9 uma sequ\u00eancia l\u00f3gica, finita e definida de instru\u00e7\u00f5es a serem seguidas para resolver um problema ou executar uma tarefa. Similar a uma receita com o passo a passo para a resolu\u00e7\u00e3o de uma tarefa.<\/p>\n<h4><strong>Um rob\u00f4-escritor<\/strong><\/h4>\n<p><span style=\"font-weight: 400;\">Em fevereiro a OpenAI\u00a0<\/span><a href=\"https:\/\/openai.com\/blog\/better-language-models\/\"><span style=\"font-weight: 400;\">anunciou o sistema<\/span><\/a><span style=\"font-weight: 400;\">, batizado de GPT-2. A avalia\u00e7\u00e3o dos resultados foi t\u00e3o boa que os respons\u00e1veis decidiram n\u00e3o liberar a pesquisa completa para o p\u00fablico at\u00e9 que fossem mais bem discutidas as implica\u00e7\u00f5es de sua disponibiliza\u00e7\u00e3o. O receio residia na possibilidade de mau uso da ferramenta para a dissemina\u00e7\u00e3o de spam, not\u00edcias falsas, teorias conspirat\u00f3rias, discursos preconceituosos e de \u00f3dio.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nos meses que se seguiram a OpenAI liberou vers\u00f5es parciais da ferramenta e, <\/span><a href=\"https:\/\/openai.com\/blog\/gpt-2-1-5b-release\/\"><span style=\"font-weight: 400;\">no in\u00edcio de novembro<\/span><\/a><span style=\"font-weight: 400;\">, abriu para uso a maior vers\u00e3o dispon\u00edvel, dotada de 1,5 bilh\u00e3o de par\u00e2metros.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">O volume de dados usados no treinamento do algoritmo \u00e9 um dos grandes diferenciais do GPT-2. Os modelos \u201ceram 12 vezes maiores, e o conjunto de dados era 15 vezes maior e muito mais amplo\u201d do que os utilizados at\u00e9 ent\u00e3o, descreve Dario Amodei, diretor de pesquisa do OpenAI. Dez milh\u00f5es de artigos, totalizando um volume de 40 GB, comp\u00f5em a base do sistema. \u00c9 o equivalente a 35 mil c\u00f3pias de Moby Dick.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">O jornal brit\u00e2nico The Guardian, <\/span><a href=\"https:\/\/www.theguardian.com\/technology\/2019\/feb\/14\/elon-musk-backed-ai-writes-convincing-news-fiction\"><span style=\"font-weight: 400;\">em mat\u00e9ria que repercutia o an\u00fancio feito no in\u00edcio do ano<\/span><\/a><span style=\"font-weight: 400;\">, mostrou como o GPT-2 dava sequ\u00eancia \u00e0 frase inicial de \u201c1984\u201d, cl\u00e1ssica distopia escrita por George Orwell. Fizemos o mesmo, mas utilizando a abertura de Dom Casmurro. O resultado foi o seguinte (em tradu\u00e7\u00e3o livre para o portugu\u00eas):<\/span><\/p>\n<blockquote><p><b>Uma noite destas, vindo da cidade para o Engenho Novo, encontrei no trem da Central um rapaz aqui do bairro, que eu conhe\u00e7o de vista e de chap\u00e9u.\u00a0 <\/b>Ele estava de cabe\u00e7a baixa e n\u00e3o falou. Eu vi claramente sua face jovem. Ele passou por mim e n\u00e3o parou. Achei estranho, mas me lembrei da garota. Ele foi em dire\u00e7\u00e3o a garota. Desci do trem e o segui.<\/p><\/blockquote>\n<p><span style=\"font-weight: 400;\">Os exemplos mostram como o algoritmo, embora esteja longe de um Machado de Assis, ainda assim \u00e9 capaz de desenvolver a narrativa de forma criativa e coerente (embora o original traga algumas incongru\u00eancias). Voc\u00ea mesmo pode experiment\u00e1-lo, <\/span><a href=\"https:\/\/talktotransformer.com\/\"><span style=\"font-weight: 400;\">aqui<\/span><\/a><span style=\"font-weight: 400;\">.\u00a0\u00a0<\/span><\/p>\n<h4><strong>Aprendendo portugu\u00eas<\/strong><\/h4>\n<p><span style=\"font-weight: 400;\">Como foi alimentado com textos em ingl\u00eas, o sistema por ora funciona nesse idioma. Mas \u00e9 poss\u00edvel treinar o GPT-2 em qualquer l\u00edngua, dado que ele n\u00e3o distingue idiomas. Mais: ele sequer lida bem com palavras, exatamente, mas com <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/Byte_pair_encoding\"><span style=\"font-weight: 400;\">byte-pair encodings<\/span><\/a><span style=\"font-weight: 400;\">. \u201cResumidamente, \u00e9 como se fosse um vocabul\u00e1rio composto por caracteres e sequ\u00eancias de caracteres mais comuns vistas nos textos. Algumas palavras pequenas ou muito comuns fazem parte deste vocabul\u00e1rio, enquanto outras s\u00e3o decompostas em partes menores, e tratadas como mais de um token. Isso traz muita flexibilidade, pois n\u00e3o se fica amarrado ao vocabul\u00e1rio de uma l\u00edngua espec\u00edfica\u201d, explica o brasileiro Erick Fonseca, p\u00f3s-doutorando no Instituto de Telecomunica\u00e7\u00f5es de Lisboa. Ele testou o algoritmo uma base de dados em portugu\u00eas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Para isso, Fonseca extraiu da Wikip\u00e9dia e usou como input para o GPT-2 todos os artigos em l\u00edngua portuguesa. O processo est\u00e1 descrito em <\/span><a href=\"https:\/\/medium.com\/ensina-ai\/ensinando-portugu%C3%AAs-ao-gpt-2-d4aa4aa29e1d\"><span style=\"font-weight: 400;\">um artigo no Medium<\/span><\/a><span style=\"font-weight: 400;\">. Como o pesquisador utilizou uma vers\u00e3o preliminar do sistema, liberada em agosto, e um volume de dados consideravelmente menor \u2013 cerca de 1,5 GB, bem menos que os 40 GB do original \u2013 os resultados n\u00e3o s\u00e3o t\u00e3o impactantes, mas mostram a capacidade da ferramenta.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Apesar de algumas incongru\u00eancias e repeti\u00e7\u00f5es, o algoritmo foi bem-sucedido em captar a estrutura geral das frases em portugu\u00eas. Ele criou diversos textos, inventando nomes e situa\u00e7\u00f5es, acertando mais do que errando, como vemos no trecho abaixo:\u00a0<\/span><\/p>\n<blockquote><p><span style=\"font-weight: 400;\">\u201cArmored Warfare\u201d \u00e9 o segundo \u00e1lbum de est\u00fadio da banda estadunidense The Band, lan\u00e7ado em 1965. Foi o primeiro \u00e1lbum a ter lan\u00e7amento em 1965 e foi lan\u00e7ado pela gravadora chamada Midway Records. (&#8230;) O disco teve vendas de mais de 26 mil c\u00f3pias nos Estados Unidos. Ame seus \u00e1lbuns de est\u00fadio foram certificados em diversos pa\u00edses brasileiros e o \u201csingle\u201d \u201cThe Last Man\u201d vendeu mais de 4 mil c\u00f3pias nos Estados Unidos.<\/span><\/p><\/blockquote>\n<h4><strong>Cam\u00f5es que se cuide?<\/strong><\/h4>\n<p><span style=\"font-weight: 400;\">Os avan\u00e7os da intelig\u00eancia artificial, tais como o GPT-2, mant\u00e9m acesa a discuss\u00e3o sobre as potencialidades, limites e dilemas da tecnologia. Restar\u00e1 algo em que as m\u00e1quinas n\u00e3o possam nos superar? A escrita \u00e9 uma habilidade complexa e, at\u00e9 o ano passado, exclusiva dos humanos.\u00a0\u00a0<\/span><\/p>\n<p><b>Mas se n\u00e3o podemos esperar que uma IA seja capaz de produzir o tipo de prosa original que voc\u00ea esperaria de algu\u00e9m com doutorado em literatura, isso n\u00e3o deveria ser um sinal de que a m\u00e1quina \u00e9 apenas uma ferramenta?<\/b><\/p>\n<p><span style=\"font-weight: 400;\">N\u00e3o sabemos ainda a resposta. Mas pergunta tamb\u00e9m foi formulada pelo GPT-2, na sequ\u00eancia do trecho com o qual gentilmente colaborou para esse artigo. <\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Na verdade, apenas parte deste texto foi escrito por uma m\u00e1quina, mas elas est\u00e3o se esfor\u00e7ando para chegar l\u00e1. &nbsp; Pode parecer fic\u00e7\u00e3o cient\u00edfica, mas j\u00e1 existem sistemas de intelig\u00eancia artificial capazes de criar textos com incr\u00edvel semelhan\u00e7a aos escritos por humanos. Alguns deles incluem coisas como piadas e poemas. Outros s\u00e3o muito mais s\u00e9rios. [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1812,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[25,19],"tags":[477,479,345,481],"class_list":["post-1805","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-science","category-tecnologia","tag-escrita","tag-gpt-2","tag-inteligencias-artificial","tag-textos"],"jetpack_featured_media_url":"https:\/\/gotodata.com.br\/web\/wp-content\/uploads\/2019\/11\/writing-e1573580506474.jpeg","_links":{"self":[{"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/posts\/1805"}],"collection":[{"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/comments?post=1805"}],"version-history":[{"count":0,"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/posts\/1805\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/media\/1812"}],"wp:attachment":[{"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/media?parent=1805"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/categories?post=1805"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/gotodata.com.br\/web\/wp-json\/wp\/v2\/tags?post=1805"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}