Big Techs pretendem definir padrões da IA na saúde. E nós?
Os últimos dias foram de destacada importância para os defensores dos SUS — em sua natureza pública, gratuita, laico e universal — e aqueles atentos às presentes e futuras mudanças estruturais provenientes da “transformação digital da saúde”.
O Conselho Nacional de Saúde (CNS) instituiu a Câmara Técnica de Saúde Digital e Comunicação em Saúde (CTSDCS/CNS), excelente iniciativa. Segundo o comunicado à imprensa: “A Câmara Técnica surge da necessidade de discutir, apoiar e fortalecer o desenvolvimento de estratégias e ações nestas temáticas, em benefício do SUS e a partir da ótica do Controle Social.” O próximo passo da nova câmara é o lançamento do edital de chamamento para entidades e representações interessadas em compô-la. A importância deste espaço é incontestável, urgente e imprescindível.
Em paralelo, as últimas semanas também foram especialmente atentas para regulação da Inteligência Artificial (IA) no Brasil. Já escrevi sobre o que considero os limites estruturais de uma agenda política que se paute estritamente em arranjos jurídicos para dar conta do acontecimento IA, sobretudo, quando a rigor ela significa Big IA, ou seja, quando significa o mais alto patamar de concentração e acumulação de poder e capital na mão de proprietários privados — as Big Techs — que a história humana tem notícias. Mas, como sabemos, as batalhas são travadas no hic et nunc [aqui e agora].
No campo da saúde, a IA (em todas suas técnicas) é um dos elementos centrais das estratégias de “saúde digital”. Seja para inovação de novos produtos ou para aperfeiçoamento dos processos de gestão, seja para assistência aos pacientes individuais ou ações coletivas de vigilância e planejamento em saúde. Pois, embora os usos de algoritmos para informar decisões e fornecer informações não seja propriamente novos, a IA vem se consolidando como o epicentro técnico de um amplo ecossistema digital, no horizonte de uma computação em escala planetária.
E, à medida que mais dados estão “disponíveis”, os algoritmos ficam mais sofisticados, as tecnologias são barateada etc., torna-se cada vez mais imprescindível nos estruturarmos para ações de letramento digital, participação, monitoramento, regulação, auditoria — continua e holística — de todo ciclo de vida da IA — da sua concepção, desenvolvimento, implementação, até a utilização, adoção e “governança”. Sobretudo, se considerarmos a importância, incontornável, da IA no contexto da saúde: todos os desafios e riscos inscritos nas práticas de cuidado e atenção à saúde em consonância com os territórios e populações nas e pelas quais são utilizadas.
É nesse sentido que as disputas pelo destinos que daremos à IA e ao seu ecossistema digital tornou-se tão central e com camadas distintas e combinadas. Há corridas e conflitos geoeconômicos e geopolíticos por matérias primas, por semicondutores, por propriedades intelectuais, por pilhagem de dados, por parceiros comerciais etc. etc. Se China e EUA são os protagonista desta contenda, o secretário de Estado Antony Blinken, em 2021, na Comissão Nacional de Segurança sobre Inteligência Artificial dos EUA, deu a letra sobre o cenário: “Precisamos que os Estados Unidos e seus parceiros continuem sendo os líderes inovadores e definidores de padrões do mundo”.
É com vista, justamente, a “definição de padrões” no campo da “saúde digital” que nasceu a Coalition for Health AI (Chai). Segundo os comunicados de impressa, trata-se de uma comunidade composta por sistemas de saúde acadêmicos, organizações públicas, empresas e especialistas em IA. Seu objetivo é harmonizar padrões e relatórios para a IA em saúde, além de educar os usuários finais sobre como avaliar essas tecnologias e promover sua adoção.
A Chai reconhece o potencial da IA para melhorar o atendimento ao paciente e apoio aos profissionais de saúde, mas também enfatiza a necessidade de garantir que essas tecnologias sejam seguras e eficazes. Eles trabalham com diversos stakeholders, incluindo inovadores em tecnologia, equipes de pesquisa acadêmica, organizações de saúde, agências governamentais e pacientes, para desenvolver e adotar abordagens responsáveis para o uso da IA em saúde. Além disso, suas recomendações para uma IA confiável na área da saúde, destacam a utilidade, a segurança, a responsabilidade e a transparência, explicabilidade e interpretabilidade, justiça, segurança, resiliência e privacidade.
Para Forbes, o médico Michael L. Millenson disse que “apesar de toda a vibe do bem” da Chai, há questões sem resposta. Uma destacada pelo ativista é se a coalizão “defenderá seus ideais [manifestos], mesmo que isso irrite apoiadores proeminentes”. Afinal, se nas palavras do CEO da Chai, Brian Anderson, trata-se de torná-la “a fonte confiável e curadora das melhores práticas de IA na saúde”, em destaque no seu conselho diretor estão Microsoft, Google e Amazon.
O poder de aglutinação dos interesses dominantes, como sabemos, vem substancialmente do torque da valorização do valor ad infinitum. Mas isso não significa que não haja diversidades, fracionamentos entre aqueles que privadamente concorrem diuturnamente para acumularem mais capital. Tão pouco significa que as “definições de padrões” do grande capital sejam uma resultante espontânea desse mesmo torque. São preciso aparelhos privados de hegemonia (APH). São eles que disputam o direcionamento dos efeitos do torque a favor dessa ou daquela fração dominante, nessa ou naquela direção política, cultural, tecnológica, científica, epistêmica, ética etc. O resultante é um produto — nunca totalmente previsto e intencionado — dessas disputas. Sem APHs tais resultantes não existem, não há “definição de padrões”, não há consenso dominante.
O primeiro documento oficial (blueprint) do novo APH estadunidense foi lançado em abril 2023, como resultado de meses de encontros e debates. Mas sua oficialização como peça do tabuleiro é de abril deste ano. Ao lado da Amazon, Google e Microsoft, se somam mais de 1.300 organizações, incluindo sistemas hospitalares, escritórios de advocacia, universidades tais como Change Healthcare, Duke AI Health, Johns Hopkins University, Mayo Clinic, MITRE, SAS, Stanford Medicine, University of California (UC) Berkeley e San Francisco; e também orgãos ligados à Casa Branca como White House Office of Science and Technology Policy (OSTP), Agency for Healthcare Research and Quality, o Centers for Medicare & Medicaid Services, o U.S. Food and Drug Administration (FDA), o Office of the National Coordinator for Health Information Technology e o National Institutes of Health.
Robert M. Califf (“presidente” da FDA), em seu pronunciamento no lançamento da Chai, nos ajuda a entender um pouco mais do que está em jogo. Diz ele que sua preocupação é que “os sistemas de saúde não têm a infraestrutura e as ferramentas para fazer as determinações mais importantes sobre se uma aplicação de IA é 'effective' para resultados de saúde.” Desse modo, é preciso “monitorar os algoritmos e testar suas características operacionais ao longo do tempo. (…) Com a proliferação de aplicativos de IA e o fato de que eles evoluem ao longo do tempo, não está claro como o desempenho dos modelos será monitorado na escala que será necessária.”
E, “em segundo lugar, precisamos de um acompanhamento completo da população à qual o algoritmo é aplicado, pelo menos em uma amostra válida, para que o monitoramento do algoritmo seja baseado em uma inferência válida para seu uso em uma determinada população ou circunstância clínica.” E Califf sabe que a Chai pode cumprir bem essas tarefas, ele foi chefe de estratégia e política [policy] dos dois braços da Alphabet para saúde, a Verily Life Sciences e a Google Health — como sabemos, no neoliberalismo, a “porta giratória” nunca foi fortuita.
Casey Roos, interlocutor privilegiado da Chai com a imprensa, escreveu para o STAT que a coalizão é “um experimento que testará se a indústria e o governo podem efetivamente se associar na regulamentação de uma tecnologia em rápida evolução”. Quantos mais experimentos são necessários? A Big Pharma e a Big Food não foram suficientes? Quais são os “padrões” da medicina no mundo contemporâneo? Quais são os “padrões” da alimentação no mundo contemporâneo?
O APH não completou um ano de atuação e já é possível observar suas ações. Legisladores estadunidenses já estão incomodados com as relações cada vez mais estreitas entre Chai e FDA, pondo — obviamente — em questão o “conflito de interesses” oriundo da presença ativa das Big Techs na coalizão, consequentemente, do lobby delas.
E logo o tabuleiro interno já teve de se readequar. Dias atrás, por exemplo, Micku Tripathi e Troy Tazbaz, ex-Oracle e atual FDA, renunciaram como membros do conselho diretor da Chai. Como sabemos, isso é só começo: toda organização passa por um período de entropia até atingir, como diria N. Poulantzas, o “equilíbrio instável” necessário para acomodar os fracionamentos — interno as classes dominantes — e, então, operar com máxima eficácia os seus interesses. Brian Anderson é claro: a Chai “não pretende atuar como regulação governamental, mas, sim, criar uma definição consensual de IA responsável.”
A pergunta que fica então é: e nós, quais as definições de nossos padrões? O que para nós é IA responsável? Quais são para nós as melhores práticas de IA na saúde? E como essas não são — apenas — perguntas de gabinetes e papers acadêmicos, o decisivo a se perguntar é: qual a nossa “coalizão”? Quais os nossos APHs? Quais os nossos aliados geopolíticos e geoeconômicos?
As repostas devem ser amadurecidas no justo meio, o que é totalmente certo é que nenhuma delas virá a contento sem a participação popular. A Câmara Técnica de Saúde Digital e Comunicação em Saúde (CTSDCS/CNS) pode ser um locus decisivo nessa empreitada. Na verdade, esperançamos que ela venha para oxigenar os conselhos e (re)capilarizar suas atuações junto ao povo e seus territórios — e (por que não?) dar vazão à nossa coalizão.
* Leandro Modolo é sociólogo da saúde, doutorando em Saúde Coletiva na Universidade Estadual de Campinas (Unicamp), pesquisador da Fiocruz, cofundador da Estratégia Latino-americana em Inteligência Artificial (ELA-IA) e pai da Nina.
** Este é um artigo de opinião e não necessariamente expressa a linha editorial do Brasil de Fato.