Uma expressão comum entre pesquisadores e desenvolvedores de inteligência artificial (IA) é “inverno de IA” (do inglês, AI winter). Ela se refere à possibilidade do desenvolvimento da tecnologia desacelerar até ficar “adormecido” por um longo período, dando espaço para outras áreas de pesquisa. É uma ideia que passa longe dos pensamentos do sueco Max Tegmark, professor do Instituto de Tecnologia de Massachusetts (MIT).
Tegmark costuma explorar cenários nos quais a IA pode se desenvolver aceleradamente. Ao contrário de um inverno, o temor do pesquisador é o superaquecimento na evolução das máquinas. Para ele, é necessário que a humanidade não permita o avanço descontrolado da tecnologia.
O pesquisador explorou cenários da evolução da IA em seu livro Vida 3.0 – O ser humano na era da inteligência artificial (Editora Benvirá, R$ 59,90), que ganhou em janeiro sua primeira edição em português. Alguns dos cenários são futuristas, como a colonização do universo por sistemas de IA e a fusão entre humanos e máquinas. As visões fizeram com que a obra fosse apontada por Barack Obama, ex-presidente dos EUA, como um dos principais livros de 2018.
Em entrevista exclusiva ao jornal O Estado de S. Paulo, Max discutiu problemas mais imediatos relacionados à IA: desigualdade social, temores sobre os líderes do desenvolvimento, incapacidade de governos de lidar com a tecnologia, mudanças no mercado de trabalho e até o papel da tecnologia no combate à covid-19.
Em muitos momentos, ele deixa claro que o problema não é a máquina. O ponto fraco somos nós.
Confira abaixo a entrevista.
Grandes empresas, como Google e Facebook, estão entre os principais nomes por trás de IA. Quais os problemas do modelo?
Primeiro: a IA não é “má”. É apenas uma ferramenta que pode ser usada para fazer coisas boas e ruins. Hoje, ela é cada vez mais usada por grandes empresas e por governos para manipular as pessoas. Gostaria de ver isso sendo usado na direção contrária, permitindo que as pessoas pudessem descobrir quando estão sendo manipuladas. Hoje, quando você lê notícias online, os algoritmos estão tentando manipular você a ficar exposto ao maior número possível de anúncios comerciais – é assim que as empresas ganham dinheiro.
A IA aumenta a desigualdade?
Sem dúvida. Toda vez que um trabalhador humano perde seu emprego para um algoritmo ou um robô, o dinheiro que antes ia para aquele humano permanece com o dono do capital. Compare o Facebook com a Ford. O Facebook tem valor de mercado muito mais alto e tem muito menos funcionários. A razão? O Facebook tem uma porção muito maior do trabalho realizado por IA. Isso gera desigualdade na renda, com menos dinheiro indo para os trabalhadores. O único jeito de ter uma sociedade na qual todos têm uma vida melhor é os governos cobrarem impostos de empresas de tecnologia e distribuírem esse dinheiro para as pessoas. É o que a França tentou fazer, mas acabou desagradando aos EUA. O lobby das grandes empresas é muito poderoso e quer evitar qualquer tipo de taxação e regulação.
Quem deveria estar desenvolvendo IA?
Governos não deveriam permitir que empresas específicas tenham domínio absoluto de IA. O governo brasileiro, por exemplo, não deveria permitir o monopólio de duas empresas que não são brasileiras. Isso geraria uma oportunidade para startups brasileiras competirem. É importante valorizar também projetos que tentam romper o filtro da bolha. A IA pode dar poder para pessoas comuns, não apenas as grandes companhias.
Os governos têm gente capaz de compreender e regular a IA?
Não posso falar sobre o Brasil. Nos EUA e na Europa, a maioria dos políticos não têm perfil técnico: eles não são engenheiros ou cientistas. Portanto, eles não entendem a tecnologia tão bem quanto deveriam.
Qual é o perfil de trabalhador que não será substituído pela inteligência artificial?
Os trabalhos que deveríamos evitar são aqueles que serão completamente substituídos pela IA. Isso vale para qualquer um que seja altamente estruturado, no qual o trabalhador passa o dia inteiro fazendo algo previsível e interagindo pouco com outros humanos. Os melhores trabalhos são aqueles com componentes imprevisíveis e com bastante improviso. É preciso lembrar que a maioria dos empregos não será substituída completamente e nem passará livre da tecnologia. Acontecerá algo entre essas duas coisas. A tecnologia será parte do trabalho. Meu conselho é: preste atenção, leia revistas de ciência e tente se informar sobre IA.
A IA poderia ter ajudado mais durante a pandemia?
Poderia ter ajudado mais, mas não devemos culpar a IA, e sim as pessoas. Se você olhar o que aconteceu nos EUA e no Brasil e comparar com outros países, verá uma grande diferença. A Coreia do Sul teve cerca de 1,8 mil mortes. E tanto a Coreia do Sul quanto o Brasil têm acesso à IA. Mas a Coreia estava muito preparada e agiu com velocidade. Espero que a covid-19 nos ensine a ser mais humildes para que estejamos preparados para tudo.
A IA pode passar pelo chamado “inverno de IA”?
Tenho certeza que não atravessaremos um inverno de IA porque há substância no que está sendo feito. Minha preocupação não é que a IA esfrie, mas que ela superaqueça. Há tanta tecnologia desenvolvida com tanta velocidade que temo que possam sair do controle. Não queremos algo tão poderoso fora de controle – armas nucleares são um exemplo disso. Se as nossas democracias forem abaladas, e as empresas de tecnologia tomarem o comando, a gente pode nunca se recuperar novamente. Certamente não queremos uma IA com a qual um humano pudesse dominar o mundo.
Tegmark costuma explorar cenários nos quais a IA pode se desenvolver aceleradamente. Ao contrário de um inverno, o temor do pesquisador é o superaquecimento na evolução das máquinas. Para ele, é necessário que a humanidade não permita o avanço descontrolado da tecnologia.
O pesquisador explorou cenários da evolução da IA em seu livro Vida 3.0 – O ser humano na era da inteligência artificial (Editora Benvirá, R$ 59,90), que ganhou em janeiro sua primeira edição em português. Alguns dos cenários são futuristas, como a colonização do universo por sistemas de IA e a fusão entre humanos e máquinas. As visões fizeram com que a obra fosse apontada por Barack Obama, ex-presidente dos EUA, como um dos principais livros de 2018.
Em entrevista exclusiva ao jornal O Estado de S. Paulo, Max discutiu problemas mais imediatos relacionados à IA: desigualdade social, temores sobre os líderes do desenvolvimento, incapacidade de governos de lidar com a tecnologia, mudanças no mercado de trabalho e até o papel da tecnologia no combate à covid-19.
Em muitos momentos, ele deixa claro que o problema não é a máquina. O ponto fraco somos nós.
Confira abaixo a entrevista.
Grandes empresas, como Google e Facebook, estão entre os principais nomes por trás de IA. Quais os problemas do modelo?
Primeiro: a IA não é “má”. É apenas uma ferramenta que pode ser usada para fazer coisas boas e ruins. Hoje, ela é cada vez mais usada por grandes empresas e por governos para manipular as pessoas. Gostaria de ver isso sendo usado na direção contrária, permitindo que as pessoas pudessem descobrir quando estão sendo manipuladas. Hoje, quando você lê notícias online, os algoritmos estão tentando manipular você a ficar exposto ao maior número possível de anúncios comerciais – é assim que as empresas ganham dinheiro.
A IA aumenta a desigualdade?
Sem dúvida. Toda vez que um trabalhador humano perde seu emprego para um algoritmo ou um robô, o dinheiro que antes ia para aquele humano permanece com o dono do capital. Compare o Facebook com a Ford. O Facebook tem valor de mercado muito mais alto e tem muito menos funcionários. A razão? O Facebook tem uma porção muito maior do trabalho realizado por IA. Isso gera desigualdade na renda, com menos dinheiro indo para os trabalhadores. O único jeito de ter uma sociedade na qual todos têm uma vida melhor é os governos cobrarem impostos de empresas de tecnologia e distribuírem esse dinheiro para as pessoas. É o que a França tentou fazer, mas acabou desagradando aos EUA. O lobby das grandes empresas é muito poderoso e quer evitar qualquer tipo de taxação e regulação.
Quem deveria estar desenvolvendo IA?
Governos não deveriam permitir que empresas específicas tenham domínio absoluto de IA. O governo brasileiro, por exemplo, não deveria permitir o monopólio de duas empresas que não são brasileiras. Isso geraria uma oportunidade para startups brasileiras competirem. É importante valorizar também projetos que tentam romper o filtro da bolha. A IA pode dar poder para pessoas comuns, não apenas as grandes companhias.
Os governos têm gente capaz de compreender e regular a IA?
Não posso falar sobre o Brasil. Nos EUA e na Europa, a maioria dos políticos não têm perfil técnico: eles não são engenheiros ou cientistas. Portanto, eles não entendem a tecnologia tão bem quanto deveriam.
Qual é o perfil de trabalhador que não será substituído pela inteligência artificial?
Os trabalhos que deveríamos evitar são aqueles que serão completamente substituídos pela IA. Isso vale para qualquer um que seja altamente estruturado, no qual o trabalhador passa o dia inteiro fazendo algo previsível e interagindo pouco com outros humanos. Os melhores trabalhos são aqueles com componentes imprevisíveis e com bastante improviso. É preciso lembrar que a maioria dos empregos não será substituída completamente e nem passará livre da tecnologia. Acontecerá algo entre essas duas coisas. A tecnologia será parte do trabalho. Meu conselho é: preste atenção, leia revistas de ciência e tente se informar sobre IA.
A IA poderia ter ajudado mais durante a pandemia?
Poderia ter ajudado mais, mas não devemos culpar a IA, e sim as pessoas. Se você olhar o que aconteceu nos EUA e no Brasil e comparar com outros países, verá uma grande diferença. A Coreia do Sul teve cerca de 1,8 mil mortes. E tanto a Coreia do Sul quanto o Brasil têm acesso à IA. Mas a Coreia estava muito preparada e agiu com velocidade. Espero que a covid-19 nos ensine a ser mais humildes para que estejamos preparados para tudo.
A IA pode passar pelo chamado “inverno de IA”?
Tenho certeza que não atravessaremos um inverno de IA porque há substância no que está sendo feito. Minha preocupação não é que a IA esfrie, mas que ela superaqueça. Há tanta tecnologia desenvolvida com tanta velocidade que temo que possam sair do controle. Não queremos algo tão poderoso fora de controle – armas nucleares são um exemplo disso. Se as nossas democracias forem abaladas, e as empresas de tecnologia tomarem o comando, a gente pode nunca se recuperar novamente. Certamente não queremos uma IA com a qual um humano pudesse dominar o mundo.
Comentários estão fechados.