A IA te colocou na cena do crime, mas você não estava lá.

Views: 439
0 0
Read Time:30 Minute, 16 Second

COMO UM MONTE de soluções tecnológicas para problemas complexos, algoritmos de reconhecimento facial não são perfeitos. Mas quando a tecnologia é usada para identificar suspeitos em casos criminais, essas falhas no sistema podem ter consequências catastróficas e que mudam a vida. Pessoas podem ser erroneamente identificadas, presas e condenadas, muitas vezes sem nunca serem informadas de que foram identificadas por um computador. É especialmente preocupante quando você considera que identificações falsas afetam desproporcionalmente mulheres, jovens e pessoas com pele escura — basicamente todos além de homens brancos.

Esta semana no Gadget Lab, o escritor sênior da WIRED Khari Johnson se junta a nós para falar sobre os limites da tecnologia de reconhecimento facial, e o que acontece com as pessoas que são mal identificadas.Notas de show

Leia as histórias de Khari sobre como a tecnologia de reconhecimento facial levou a prisões injustas que descarrilou a vida das pessoas. Aqui está a história de Lauren sobre o smartwatch Fenix da Garmin. (E aqui está a revisão da WIRED sobre o modelo mais recente.) A história de Arielle sobre a onda de shows sobre os fundadores da tecnologia do Vale do Silício está aqui.Recomendações

Khari recomenda hoagies. Lauren recomenda smartwatches Garmin. Mike recomenda o show The Dropout no Hulu.

Khari Johnson pode ser encontrado no Twitter @kharijohnson. Lauren Goode é @LaurenGoode. Michael Calore é @snackfight. Bling a linha direta principal em @GadgetLab. O show é produzido por Boone Ashworth (@booneashworth). Nossa música tema é de Solar Keys.Como ouvir

Você sempre pode ouvir o podcast desta semana através do reprodutor de áudio nesta página, mas se você quiser se inscrever gratuitamente para obter todos os episódios, veja como:

Se você estiver em um iPhone ou iPad, abra o aplicativo chamado Podcasts ou basta tocar neste link. Você também pode baixar um aplicativo como Overcast ou Pocket Casts e procurar o Gadget Lab. Se você usa o Android, você pode nos encontrar no aplicativo Google Podcasts apenas tocando aqui. Estamos no Spotify também. E no caso de você realmente precisar, aqui está o feed RSS.

LG: Eu acho que tenho sido porque eu uso um iPhone e quando eu vou para o aeroporto, eu uso um serviço como Clear, que zeros em suas íris, é bizarro – mas eu acho que o que você está pedindo é, eu fui identificado por algum corpo ou agência pelo meu rosto para alguma coisa?

MC: Sim.

Não que eu saiba. Talvez eu tenha, mas não que eu saiba.

Alguém já bateu na sua porta e disse: “Sabemos que você estava aqui porque nossa visão computacional te viu lá?”

LG: Não. Isso aconteceu com você?

MC: Ainda não.

LG: OK.

Tenho certeza que em breve. Também é cada vez mais comum porque a aplicação da lei está aumentando seu uso de tecnologia de reconhecimento facial para iD suspeitos em torno dos Estados Unidos, e nem sempre é preciso.

LG: Sim, devemos falar sobre isso.

Nós vamos.

[Gadget Lab introduto música tema toca]

Oi, pessoal. Bem-vindos ao Laboratório de Gadget. Sou Michael Calore, editor sênior da WIRED.

Lg: E eu sou Lauren Goode, eu sou um escritor sênior na WIRED.

MC: Também estamos acompanhados esta semana pelo escritor sênior da WIRED, Khari Johnson. Khari, bem-vindo ao show.

Khari Johnson: Obrigado por me receber.

MC: Claro, pessoalmente não menos.

KJ: Oh meu Deus.

Você voou durante a noite para estar conosco hoje.

KJ: Eu fiz.

LG: A primeira aparição de Khari no Gadget Lab, e espero que o início de muitos.

MC: Então você provavelmente está ciente de que a tecnologia de reconhecimento facial está se tornando mais difundida e está sendo usada em uma variedade de aplicações. Hoje, vamos falar sobre a tecnologia de reconhecimento facial e como ela está sendo usada na aplicação da lei. Assim como muitas soluções tecnológicas para problemas complexos, algoritmos de reconhecimento facial não são perfeitos. Mas quando a tecnologia é usada para identificar suspeitos em casos criminais, essas falhas no sistema podem ter consequências catastróficas e que mudam a vida. As pessoas podem ser erroneamente identificadas, presas e condenadas, muitas vezes sem nunca serem informadas de que foram identificadas por um computador. E é especialmente preocupante quando você considera que a falsa identificação afeta desproporcionalmente mulheres, jovens e pessoas com pele escura, basicamente todos além de homens brancos. Khari, em sua recente reportagem, você falou com três pessoas, na verdade todos os três são homens negros e todos os três são pais. Esses caras foram todos presos e falsamente acusados de crimes graves por causa da dependência da polícia em tecnologia de reconhecimento facial. Quais foram os problemas que mais se destacaram nesses casos de três homens sobre os quais você escreveu?

KJ: Eu acho que eu começaria com Robert Williams – ambas as suas filhas jovens viram seu pai ser preso em seu gramado da frente, e isso os impactou negativamente de várias maneiras que é detalhada no artigo. Nijeer Parks teve que falar com seu filho pela primeira vez sobre como agir em torno da polícia, o tipo de “conversa”, essa tradição negativa que existe neste país para pessoas de ascendência africana, de como se comportar em torno da polícia. Ele teve que ter aquela conversa com o filho ao mesmo tempo que falou sobre sua falsa prisão. Você pensa nas relações pessoais que tocou, nas relações interpessoais em suas vidas, como essas prisões se espalharam por suas vidas de diferentes maneiras, o que é que eu acho realmente importante notar e parte de olhar para a inteligência artificial e o uso de algoritmos além talvez do que você vê no papel.

Se você olhar para qualquer um desses casos, eu acho que é fácil ver que há alguma violação dos direitos constitucionais, e isso é naturalmente muito grave, e negar às pessoas sua liberdade é definitivamente realmente alto na lista de algumas das maneiras mais prejudiciais que um algoritmo pode prejudicar uma pessoa, mas também que a violação tocou suas vidas de diferentes maneiras. Nijeer Parks estava transferindo dinheiro, acho que para seu noivo na época, quando a polícia disse que ele estava roubando algo de uma loja de presentes de hotel em Nova Jersey, e ele não está mais com seu noivo em parte devido a alguns dos problemas que eles tinham em torno dessas acusações. Eu só acho que é muito importante aprender sobre cada uma de suas vidas após a prisão notar que tocou as pessoas ao seu redor e suas relações com pessoas próximas a eles, bem como cada uma dessas coisas relacionadas com seus direitos civis e seus direitos como cidadãos nos Estados Unidos.

LG: Quando sua história não só destaca algumas das consequências catastróficas que esses homens sofreram em suas vidas e algumas das questões pessoais que surgiram como resultado dessas falsas prisões, mas, em última análise, sua história levanta a questão sobre esse acidente, essa colisão do que acontece quando os humanos estão usando tecnologia nova ou emergente para fazer seus trabalhos, e neste caso, é a aplicação da lei. Eu estou querendo saber o que essas histórias dizem ou nos dizem sobre quem é, em última análise, responsável quando algo assim dá errado. É a tecnologia em si? Como no caso de Nijeer Parks, que como detalha sua história, ele passou 10 dias na cadeia depois de ser acusado injustamente de furto de uma loja de presentes em Nova Jersey. Ele eventualmente entrou com uma ação no tribunal federal em Jersey contra o diretor do departamento de polícia, funcionários locais, e IDEMIA, que é a empresa que fez o sistema de reconhecimento facial. Então, minha pergunta é, é a IDEMIA que, em última análise, vai acabar pagando indenização neste caso, se for por ali? Ou o que acontece com as pessoas que estão implantando a tecnologia?

Não tenho uma resposta completa para isso. Não acho que minha reportagem responda tão profundamente a essa pergunta. A IDEMIA não respondeu a nenhuma pergunta — estes são os primeiros casos desse tipo. E então eu acho que o resultado dos casos vai de alguma forma pesar sobre quem é responsabilizado ou quem é considerado responsável. Acredito que a queixa de Michael Oliver pede que um juiz decida que a tecnologia não seja usada até que algumas das questões em torno de sua capacidade de discriminar certos grupos sejam resolvidas, por exemplo, que poderiam retardar seu uso, mas não necessariamente atribuiria culpa.

LG: Certo. Parece que é uma má ideia, se você trabalha na aplicação da lei, para implantar tecnologia que sabemos que é falho. E como resultado de ser falho, as pessoas serão injustamente acusadas de crimes. Parece que esses são humanos tomando essas decisões e são humanos construindo a IA, certo? Isso alimenta esses sistemas.

KJ: Humanos construindo a IA, e são os humanos que estão fazendo a política de como a IA deve ser usada e aplicada em investigações e onde você estabelece os padrões de qualidade. Você pode decidir definir o nível de confiança para os resultados de pesquisa para o sistema de reconhecimento facial na taxa de precisão de 98 ou 99%, ou você pode derrubá-los para 50 e ver o que acontece. Existem algumas jurisdições com as quais alguns advogados falamos ou pesquisadores que tentaram seguir e documentar o uso da tecnologia pela aplicação da lei, eles documentaram que, em alguns casos, se a pesquisa não retornar nenhum resultado e você escolher, digamos, um limite de confiança de 90%, que eles seriam autorizados depois disso a derrubá-la para 80%, por exemplo, e ver o que volta.

Isso parece o tipo de coisa que se eu fosse um advogado de defesa criminal, eu realmente gostaria de saber isso e eu realmente gostaria de ter certeza de que era algo que você poderia discutir no tribunal, ou pelo menos certamente trazer, digamos, um especialista em desafiar, mas você não pode fazer isso porque o reconhecimento facial é tratado como uma ferramenta investigativa em vez de evidência. E como é tratado como uma ferramenta investigativa, a foto da pessoa que eles acreditam ter cometido o crime, que foi identificada pelo reconhecimento facial, é então mostrada a uma testemunha ocular. Então a testemunha ocular é confiada no julgamento e toda a acusação pode ir adiante sem nunca mencionar reconhecimento facial.

MC: Sim. Esta é uma das coisas chocantes que aprendi com sua história — que a polícia e os promotores não são obrigados a dizer a um suspeito quando a tecnologia de reconhecimento facial foi usada para ingê-los. Então, essencialmente, o uso da tecnologia está sendo em papel, escondendo-a atrás de uma pessoa que olhou para uma foto que foi escolhida de um banco de dados ou talvez uma foto que foi gerada por uma IA em alguns casos, certo?

KJ: Sim. Assim, o processo de uso de reconhecimento facial, como você estava dizendo, há a coisa de um para um tipo que você pode obter com ID.me ou com o seu iPhone. É um tipo diferente de reconhecimento facial. O tipo que é usado em investigações criminais é referido como um sistema de um para muitos. Então pode tirar uma única foto, que normalmente vem uma investigação de … Digamos, imagens de câmeras de segurança. Investigadores vão a um negócio, digamos que foi roubado, eles tiram uma foto disso das imagens da câmera de segurança e depois executam-no através de um sistema de reconhecimento facial, e que pode retornar centenas de resultados. E esses resultados são então mostrados a um analista de reconhecimento facial que trabalha com a polícia e eles começam a decidir, o humano nesse ponto assume o processo e decide quem é identificado.

E isso pode apresentar alguns desafios, também, porque a identificação errada é considerada uma das principais questões que leva a condenações injustas, de acordo com o Projeto Inocência. E as pessoas também são menos adeptas a identificar pessoas de diferentes grupos raciais. Portanto, há diferentes partes desse processo de uso do reconhecimento facial em uma investigação criminal que muitas pessoas que estão preocupadas com ele dizem que podem apresentar desafios ou preconceitos.

Tudo bem, vamos fazer uma pausa e voltar logo.

[Pausa]

MC: Como temos aprendido, a tecnologia de reconhecimento facial está sendo usada cada vez mais para ajudar a aplicação da lei nos Estados Unidos, mesmo que esses sistemas sejam selados por imperfeições que podem levá-los a identificar falsamente suspeitos. Khari, você mencionou brevemente um relatório do Centro georgetown sobre privacidade e tecnologia, e entre as muitas coisas que o grupo em Georgetown Law descobriu está o fato de que metade dos adultos dos EUA estão agora em um banco de dados de ignição facial. Essa é uma estatística que eles surgiram em 2016, de modo que foi há cinco ou seis anos. Onde estamos agora com o número de rostos que estão neste banco de dados que eles usam para identificar pessoas?

KJ: Sim. Então eu acho que realmente depende de como você mede isso. Então, há a abordagem federal e há – o FBI tem acordos com, eu acho, 20-algo diferente estados, e que lhes permite acesso a fotos de carteira de motorista. E assim esse sistema, eu acredito, compõe uma grande parte do que eles estão falando com o um e dois, mas estados diferentes têm seus próprios sistemas também. E em lugares como, digamos, Pensilvânia, há, eu acho, cerca de 13 milhões de pessoas, mas seu banco de dados de fotos que eles usam para reconhecimento facial inclui 38 milhões de rostos.

Mc: Como isso funciona? Como óculos de óculos, barba, sem barba. Pintei meu cabelo de castanho, pintei meu cabelo de loiro.

KJ: Sim. Bigodes falsos. Sim. Eu realmente não sei, mas Michigan tem uma coisa semelhante onde há, eu acho, 10 milhões de pessoas e 53 milhões de fotos em seu banco de dados.

MC: Uau.

KJ: E este é um banco de dados atualizado. Então diferentes estados têm grandes bancos de dados de fotos para digitalizar. E depois há o Clearview, que tem um banco de dados, é o meu entendimento de cerca de 3 bilhões de fotos. Foi isso que motivou essas acusações, que o surgimento de Clearview foi o fim da privacidade. Eu acho que é Drew Harwell no Washington Post fez algumas boas reportagens no último mês ou assim, apontando para um deck de campo de Clearview dizendo basicamente que eles querem incluir fotos de efetivamente todos no planeta. Então há essa ambição, eu acho. Certamente, eles são proibidos em alguns lugares.

MC: Mas isso é em grande parte não regulamentado agora.

KJ: Sim.

Mc: É loucura pensar nisso.

KJ: Houve alguns esforços para tentar regula-lo no Congresso. Acho que desde 2018, o Comitê de Supervisão e Reforma da Câmara pegou e estava procurando colocar alguns limites no uso da tecnologia de reconhecimento facial pela aplicação da lei. Na verdade, reuniu o fervoroso apoiador de Trump Jim Jordan e Elijah Cummings, congressista de Maryland, que foi inspirado em parte para começar a olhar para isso, acredito, devido ao uso da tecnologia de reconhecimento facial em protesto contra a morte de Freddie Gray, um homem negro que foi morto pela polícia em Baltimore, eu acho que em 2015. Infelizmente, Elijah Cummings faleceu, acho que há um ou dois anos atrás, e muitas dessas coisas não fizeram progressos, nem esse esforço ou outros esforços do Congresso para regular a tecnologia de reconhecimento facial não foram a lugar nenhum. Assim, a maioria das soluções políticas para isso estão sendo abordadas a nível estadual.

LG: Então, para trazê-lo de volta para o que falamos mais sobre a primeira metade deste episódio. O problema é que essa tecnologia não funciona como pretendido, certo? E isso tem consequências terríveis para as pessoas na vida real. Como isso realmente funciona? Se isso fosse regulamentado de alguma forma, é possível que ele não só fosse regulado no nível de como é implantado, mas também haveria regulamentos sobre como ele é construído? Porque sabemos que com IA e aprendizado de máquina, há aquela frase lixo dentro, lixo fora. Você dá dados ruins, a saída pode estar errada também. Direita? Fale sobre como isso realmente funciona tecnicamente, explique para as pessoas do nosso público e como isso talvez deva mudar para que essas coisas não aconteçam.

KJ: Bem, eu deveria dizer que nós realmente não sabemos o quão preciso é na prática. Acho que há uma comparação entre o desempenho real desta tecnologia e o que sabemos em ambientes laboratoriais. Sabemos que, em ambientes laboratoriais, melhorou em sua capacidade de identificar muito as pessoas nos últimos dois anos. É até aparentemente, por alguma razão, melhor em identificar pessoas do lado, o que eu não sabia que estávamos fazendo.

Isso é interessante.

KJ: Sim. Isso é uma coisa. Aprendi isso, mas a diferença entre o caso de uso do mundo real e a implantação em laboratório, eu acho que é importante notar. A outra coisa realmente importante é que mesmo que seja o melhor algoritmo de reconhecimento facial, uma vez que você usa uma imagem de baixa qualidade, pode reduzir muito a precisão dos resultados. Assim, mesmo o melhor algoritmo vai ser diminuído por uma foto pobre usada como entrada. Não importa como a inteligência artificial foi treinada, quaisquer dados que foram usados para isso, isso é algo que eu acho que muitos fabricantes desta tecnologia ainda estão lutando e não foram capazes de lidar. Mas, no que diz respeito ao lixo no lixo, todo modelo de inteligência artificial usa dados de treinamento para tomar uma “decisão inteligente” ou determinação nos dados de treinamento — se for representativo, pode identificar com precisão as pessoas, por exemplo.

Mas se os dados de treinamento não têm pessoas de diferentes estilos de vida, então você terá resultados tendenciosos. Isso foi demonstrado mais notavelmente pelo projeto Gender Shades em 2018. É extremamente importante notar que provavelmente não estaríamos tendo essa conversa se não fosse por esse trabalho particular de duas mulheres negras, Timnit Gebru e Joy Buolamwini. E havia certamente uma superrepresentação de homens brancos que eles foram capazes de identificar, e acredito que estudos encontraram resultados semelhantes, o Instituto Nacional de Padrões e Tecnologia, que também estudou isso no Departamento de Comércio.

LG: Então, basicamente, se esses sistemas são treinados predominantemente em imagens de homens brancos, então isso vai criar uma maior taxa de precisão para imagens de homens brancos versus pessoas de cor, mulheres, crianças, grupos sub-representados nos conjuntos de dados de treinamento.

KJ: Essa é a ideia. Mas acho que há, como eu estava dizendo, a qualidade de uma foto pode impactá-la. A outra coisa é que os rostos das pessoas mudam à medida que envelhecem. Quando a foto foi tirada pode impactar os resultados, então há diferentes influenciadores que podem contribuir também.

MC: Você poderia argumentar que não importa o quão boa a tecnologia fique, não importa o quanto prestamos atenção para ter uma representação social adequada no conjunto de dados, treinar a IA para reconhecer melhor as pessoas, provavelmente não vai mudar muitos dos problemas que estamos falando porque temos uma resistência cultural, uma resistência política em responsabilizar a polícia por suas decisões. Temos proteções legais onde a polícia não precisa dizer que o reconhecimento facial foi usado para identificar você para que você não possa se defender adequadamente no tribunal. Temos humanos verificando a precisão e perguntando a testemunhas humanas. E esses humanos historicamente demonstraram que têm mais dificuldade em reconhecer pessoas que têm pele mais escura. E também temos a preponderância de casos que vemos onde pessoas negras e pardas são processadas por crimes a taxas mais altas e presas a taxas mais altas do que pessoas não-negras e pardas, certo? Então é como se todas essas coisas não pareçam mudar. E se a tecnologia é “perfeita” ou é percebida como perfeita, então ela se torna possivelmente até uma arma mais mortal a esse respeito. Direita?

KJ: Sim. Sim.

Mc: Desculpe, não quero aparecer com toda a negatividade, mas este é um problema muito complexo. E é algo que eu acho que, quando falamos sobre essas coisas, sendo uma publicação de tecnologia, nós sempre tendemos a confiar, bem, é a tecnologia que é ruim e está levando a esses problemas. Mas neste caso em particular, deixamos bem claro, você deixou bem claro no início que não é a tecnologia ruim e temos esses problemas, é que todo o sistema é ruim. O sistema está confiando nessa tecnologia imperfeita, que apenas fortalece o poder do sistema. Fortalece todos os problemas que já estão lá.

KJ: Sim. Uma das conversas que tive foi com alguém que ajudou a criar uma política de reconhecimento facial para departamentos de polícia na Virgínia — Christopher Quinn. Ele tem experiência em supervisionar investigadores em investigações criminais. Ele acredita que pode ser usado efetivamente em casos, mas também que a divulgação precisa estar lá. Mas ele falou sobre a ideia de um efeito CSI para reconhecimento facial e a ideia de que os investigadores estão esperando que a tecnologia esteja lá, da mesma forma que as pessoas poderiam ter — jurados ou outras pessoas envolvidas com investigações há 20 anos — poderiam ter se sentido sobre evidências de DNA. A diferença nisso é a evidência forense, pode ser um pouco mais difícil de coletar do que uma captura de tela de uma câmera de segurança.

MC: Certo.

KJ: Assim, a prevalência dela na vida das pessoas pode ser muito maior e, ao seu ponto, todas essas outras coisas na sociedade, mesmo que a tecnologia fosse absolutamente perfeita, ainda significa que poderia ter resultados negativos ou desfechos desproporcionais em certas comunidades.

Bem, Khari, obrigado por estar aqui e por nos levar por tudo isso. É muito inento, então obrigado.

KJ: Sim. Obrigado.

Mc: E obrigado por escrever essas histórias, elas são realmente ótimas. Todos deveriam ir ao WIRED.com e lê-los. Vamos, é claro, ligar-nos a eles nas notas do show. Vamos fazer uma pausa e depois vamos voltar e fazer nossas recomendações.

[Pausa]

Mc: Tudo bem. Então vamos trocar de marcha um pouco. Khari, é sua primeira vez no programa.

KJ: De fato.

MC: Então você é novo nisso e pedimos desculpas por jogar isso em você, mas no final do show fazemos recomendações, onde pedimos aos nossos convidados e depois nós, como os anfitriões também recomendamos coisas que nossos ouvintes podem estar dentro. Eles podem ser algo que está no mundo wired. Muitas vezes, há coisas que estão fora do mundo WIRED. Então, como nosso convidado, você pode ir primeiro. Qual é a sua recomendação de uma coisa que nossos ouvintes devem verificar?

Vou ser honesto com você. Eu me metei muito bem em um hoagie no caminho para cá. E já faz um tempo e não estamos falando de fantasia, sem aioli.

Mc: Aceno de cima.

KJ: Não, acho que não. Estamos falando de alface, carne.

LG: É peru?

KJ: Havia peru, era peru apimentado básico. Era um sanduíche básico chique.

Onde você conseguiu isso?

Fred Meyer.

Fred Meyer. E você diz que no caminho para cá, você quer dizer andar pela Terceira Rua?

KJ: Sim.

Não sabia se você queria dizer no seu voo esta manhã, eu disse: “Uau. Sanduíches estão de volta em aviões.

KJ: Não.

MC: Há um grande prazer em um sanduíche gigante.

LG: Sim.

KJ: Já fazia um tempo. Então, eu vou recomendar com confiança hoagies.

LG: Eu respeito que você chamou aioli em particular. Houve um tweet que se tornou viral no início desta semana onde alguém disse que realmente só pegou um pouco de maionese e adicionou um pouco de sabor a ele e chamou de aioli, hein? E todo mundo está nessa.

KJ: É 100% verdade.

Mc: É como chamar o molho de curry, certo? Só significa que você pagou um dólar extra por ele. Além disso, você escolheu a palavra hoagie.

LG: Sim. Vamos falar sobre isso. Não é um “submarino”.

KJ: Eu sinto que isso não faz parte do meu dialeto regional porque eu sou da Califórnia, mas também eu gosto de dizer hoagie. Sou um wordsmith e gosto…

LG: Eles chamam de moedor às vezes na Costa Leste.

MC: Não.

LG: Sim.

MC: Não. Eu sei que sim, mas minha resposta é não.

Você já comeu um moedor de almôndegas?

MC: Não. Moedor. Que come moedores.

LG: Eu faço.

Mc: Eu como subs, hoagies, sanduíches e tortas. Sim. Respeitem o hoagie, pessoal. Lauren, qual é a sua recomendação?

LG: Minha recomendação está um pouco alinhada com a recomendação de Kate Knibbs na semana passada. Então, para aqueles de vocês que ouviram, tivemos Kate Knibbs no programa muito brevemente no final do programa para falar sobre sua grande experiência com a Apple Music e como depois de um tempo ela desistiu do Apple Music e ela voltou para o Spotify. Minha recomendação esta semana é voltar para um relógio Garmin se você estiver usando um Apple Watch. Agora são palavras de luta, eu entendo. E eu ainda gosto muito do Apple Watch, que é diferente do que Kate tinha a dizer sobre o Apple Music na semana passada. Eu gosto do Apple Watch, eu acho que é incrivelmente pensativo projetado. Eu acho que se você está vivendo no universo da Apple não há nada como isso em termos de integração e como você pode ver suas mensagens e responder a mensagens e controlar seus aplicativos e tudo isso.

Eu tinha esse grande hack acontecendo por um tempo, quando eu estava no chuveiro, eu usaria o Apple Watch no chuveiro e depois controlar minha música do relógio, e foi muito bom, certo? Mas a duração da bateria, sempre volta à vida útil da bateria. E eu tenho feito um monte de coisas ao ar livre neste inverno e de volta a viajar um pouco novamente, e este Garmin, este Fenix 5S que eu tinha escrito há anos – deu-lhe um Editor’s Choice Award quando eu estava no The Verge – eu o possuo. Isso é ótimo. A bateria dura cinco dias facilmente. Voltei a usá-lo no início do ano e não olhei para trás. Eu realmente, realmente gosto. E eu ouvi isso de outras pessoas também. Eu sei que Adrian no nosso time é um grande fã de relógios Garmin. Você Michael, você nunca usaria smartwatches, e então você começou a correr e você tem o Garmin.

MC: Certo. Bem, eu tenho um Withings Activite Steel, que é um smartwatch, mas não o que a maioria das pessoas apontaria e diria, que é um smartwatch. Mas sim, eu sei. Eu uso Garmin 735XT.

LG: Sim. E é ótimo. Faz tudo o que eu tenho certeza que você precisava fazer. E também eles têm esses displays LCD transflectivos e por isso são mais fáceis de ver à luz do sol, e eles não são tão famintos por energia. Eu não sei, você pode configurar a tela para que você possa ver coisas como elevação, você pode configurá-la para rastrear todos os tipos de atividades, snowshoeing, esqui sertanejo, yoga, vela, o que diabos você quiser. É bonito, não sei, sou apenas um grande fã de relógios Garmin. Eles têm uma fatia do mercado de smartwatch hoje em dia. Apple é claramente dominante, mas eu sou um fã.

Mc: Então aqui está minha grande pergunta sobre o uso do relógio esportivo Garmin. Você tem as notificações ligadas?

LG: Eu faço. E então eu não posso fazer nada com eles. É só um relógio nesse ponto. Eu vejo isso entrar. Eu vejo uma notificação do Slack ou um iMessage entrar e eu sou como, “OK, eu preciso resolver isso.” Não há como interagir com ele neste relógio. Eu também vou dizer, eu me pego tirando este relógio com mais frequência quando estou indo para certas situações sociais, o que eu nunca fiz com o meu Apple Watch porque o relógio Garmin é volumoso e é …

Mc: Você pode dizer feio.

LG: Não é o mais… Não é o relógio mais atraente.

Não acho que seja feio. Acho que a maioria das pessoas do nosso círculo social, presumo que seu círculo social. E isso diz tanto sobre você como pessoa, certo?

LG: Certo. E isso também é interessante, que o Apple Watch não diga muito sobre você, se você está usando um Apple Watch mais. Nos primeiros dias, era como, oh, você era um nerd, você estava realmente a seu favor. Ou você era um revisor de tecnologia. Mas agora todo mundo tem um Apple Watch.

Mc: Ou você trabalhou na Apple.

LG: Certo.

Em São Francisco, presumi isso.

LG: Exatamente. Nem sei mais quanto essa coisa custa. Há tantos relógios Garmin. Vamos ver, estou procurando isso agora. Boone, você pode manter na digitação, digitação, digitação. O Fenix 5S, tudo bem, ainda não é barato. Vejamos, parece que você pode pegá-lo por até 400 dólares, mas a maioria dos lugares estão listando-o por 500. Você pega o vidro de Safira também.

MC: Você pode comprar dois Apple Watches pelo preço do Fenix 5S.

Lg: Oh, eu amo quando isso acontece. Pesquisei isso no Google e a primeira coisa que veio à tona para os resultados de notícias foi o Garmin Fenix 5S, é o relógio fitness que eu não quero tirar, e ele declarou 30 de março de 2017, escrito pelo seu verdadeiramente. Então, sim. De qualquer forma, essa é a minha recomendação.

Mc: Legal.

LG: Uma recomendação muito antiga de reciclagem.

Mc: Legal.

Mike, qual é o seu.

Mc: Obrigado por nos dizer que horas são. Minha recomendação é um programa chamado “O Abandono” e está no Hulu, você provavelmente já ouviu falar dele. É a história de Elizabeth Holmes e Theranos, e é um relato episódico ficcionalizado dessa história. Eu estava realmente em cima do muro sobre assistir, mas eu notei que havia todos esses shows saindo que têm a ver com coisas que eram grandes em nosso mundo. Há super bombeado, o show do Uber. Há o WeCrashed, que é a história do WeWork. E tem esse, “O Abandono”. Eu não sei por que eu selecionei este primeiro, só porque eu estava no Hulu para outra coisa, e eu apenas cliquei nele. É lixo, não é fantástico, mas é muito engraçado. Eu realmente gosto de como é exagerado. Há uma cena, em particular, eu tenho falado sobre isso nos últimos dias.

Então, desculpe-me se você já ouviu isso, mas há uma cena no início de um dos episódios onde Elizabeth Holmes, ela é tão apaixonada por Steve Jobs e pela Apple e por toda a maneira que eles apresentam aquela empresa que ela vai a uma das lojas da Apple no dia em que o primeiro iPhone é lançado e você pode comprá-lo. E há uma multidão gigante de pessoas do lado de fora da loja da Apple, e todos eles estão chorando de alegria e pulando para cima e para baixo e gritando e torcendo para que o iPhone está finalmente à venda. E as pessoas estão saindo da loja e estão mostrando seu iPhone ou segurando-o e todo mundo está aplaudindo. Parece ridículo, mas é fácil esquecer que era assim que era quando o iPhone foi colocado à venda há 14, 15 anos.

Ela é uma daquelas pessoas que todos nós olhamos e nós somos como, “Uau, essas pessoas realmente gostam do iPhone.” Então, isso nos dá essa pequena foto divertida do que era a rosiness em torno da tecnologia na época, e também apenas aquele halo da Apple e Steve Jobs que ela caiu, o que era realmente reconhecível para mim como alguém que viveu através dela, de qualquer maneira. Acho que novos episódios saem toda semana agora, e é uma minissérie. Então eu acho que você pode aparecer e assistir os primeiros quatro ou cinco agora, e então ele vai concluir, eu acho que no final deste mês, início de abril.

LG: Como você se sente sobre Elizabeth Holmes como uma personagem e como uma pessoa como você está assistindo isso?

Mc: É difícil porque eu me identifico com ela porque é Amanda Seyfried.

Tudo bem. OKEY. Você não está vendo Elizabeth Holmes, você está vendo Amanda Seyfried.

MC: Certo. Então não é um show imersivo. Não é como se eu só visse as pessoas no programa como os personagens. É Amanda Seyfried e o cara de Lost, Sayid de Lost. Então é como se eu não pudesse realmente entrar nele e realmente senti-los como personagens, é mais apenas sobre o espetáculo e a diversão dele porque todo mundo no show é um palhaço. Que você sabe que todos eles são enganados.

KJ: Eles abordam o piscar?

MC: Ainda não.

LG: O piscar como na falta de piscar?

KJ: Certo.

MC: Sim.

KJ: Sim.

Mc: Há coisas sutis sobre a voz.

KJ: Certo.

Nós a vemos ensaiando a voz no show.

Tive um pressentimento.

Nós a vemos ensaiando o guarda-roupa, a vemos ensaiando o cabelo. Então, tenho certeza que em algum momento isso acontece.

Eu assistiria só por isso.

MC: Sim.

LG: Eu me pergunto sobre essas séries de roteiro tecnológico que estão saindo agora, as que você acabou de listar, porque eu acho que há, eu provavelmente estou pensando demais nisso, mas eu acho que há o perigo de transformar essas pessoas em caricaturas de si mesmas ou sentir a falta de apego ou uma distância deles como pessoas que em muitos casos fizeram danos reais aos seus clientes. E eles sofreram consequências, certo? Como Travis Kalanick foi expulso da Uber, e essa era sua empresa e seu bebê.

Ele ainda é podre de rico.

LG: Certo. E agora o que quer que ele esteja fazendo.

Adam Neumann, rico imundo.

LG: Sim.

Elizabeth Holmes provavelmente vai passar 20 anos na cadeia.

LG: Certo. Direita.

Talvez eu não devesse rir.

LG: Certo. E agora há valor de entretenimento nessas histórias, o que é bizarro para mim.

Mc: São acidentes de carro em câmera lenta.

LG: Sim.

Assistindo esses programas, é isso que é.

KJ: E ocasionalmente infringindo a lei.

MC: Sim.

KJ: Você já infringiu a lei?

Mc: Esse é o acidente de carro. Alguma vez infringi a lei?

KJ: Não, você não. A WeWork.

LG: Sim. Mike, você fez?

KJ: Você vai ter que falar com meu advogado.

LG: Sim. A WeWork infringiu uma lei? Isso é um grande, não, apenas super-alavancado. Sim. E agora é loucura porque todo mundo está voltando para os espaços semelhantes ao WeWork ou WeWork.

MC: Sim.

LG: Sim.

MC: O grande RTW — o grande retorno ao WeWork.

LG: Arielle Pardes escreveu sobre isso para a WIRED esta semana também. Escreveu sobre esses três shows, e ela gostou mais do WeCrashed.

MC: Sim. Ela não tinha palavras gentis para Super Bombeado ou “O Abandono”, mas tudo bem. Eu ainda acho que há muita televisão ruim lá fora que é muito pior.

LG: Também devemos mencionar que, é claro, Super Pumped … o autor de Super Pumped, o livro, e quem também é eu acredito que um produtor de consultoria ou co-executivo executivo — ele é um produtor — é Mike Isaac, que foi membro da WIRED por um longo tempo e foi co-apresentador do Gadget Lab Podcast.

Cohost neste programa.

LG: Deste mesmo show.

MC: Sim.

LG: Sim.

Eu o estomei. Mas é um bom livro. É um ótimo livro.

LG: O livro é muito bom.

Mc: Ótimo livro. Leia o material de origem, pessoal. Leia John Carreyrou. Leia as duas pessoas que escreveram o livro da WeWork.

Eliot e Maureen.

Eliot e Maureen.

LG: E eles vieram no show também.

Le mike Isaac.

LG: Sim. Boa recomendação de lanche.

Mc: Obrigado. Está bem. Bem, esse é o nosso show para esta semana. Obrigado por se juntar a nós, Khari. Obrigado por estar aqui.

KJ: Obrigado por me receber, é claro.

E obrigado a todos por ouvirem. Se você tiver feedback, você pode encontrar todos nós no Twitter, basta verificar as notas do show. Este show é produzido pelo indubitável Boone Ashworth. Adeus, e voltaremos semana que vem.

FONTE: WIRED

POSTS RELACIONADOS