erá que esta permeabilidade às decisões tomadas pela inteligência artificial significa que, brevemente, poderemos deixar que sejam algoritmos a tomar as decisões que importam nas nossas organizações e, mais globalmente, na nossa sociedade? À medida que a própria tecnologia evolui e se torna mais eficaz a detetar padrões e preferências, deveremos deixar que esta nos indique a direção a seguir? Irão os algoritmos de data science tornar obsoleta a intuição humana? Duas razões principais podem levar a responder negativamente a estas perguntas:
1. A aplicação de data science a comportamentos humanos necessita de subjetividade humana
Tipicamente, os algoritmos de inteligência artificial analisam grandes volumes de dados de forma a encontrarem padrões associados a determinado grupo ou classe. Por exemplo, podemos treinar um algoritmo para distinguir imagens de cães e gatos dando-lhe suficientes imagens de cada uma das categorias para que ele aprenda as características que estão mais associadas a cada um dos animais.
Foto
Tem sido demonstrado que estes algoritmos podem, de facto, aprender de forma eficaz e precisa estes padrões, não só em tarefas como esta, mas também em problemas tão importantes como a previsão de acidentes rodoviários [2] ou a identificação de pessoas em risco de suicídio [3][4].
É exatamente em problemas humanos sensíveis como este último que se torna mais claro que os algoritmos não podem ter todas as respostas. Por um lado, podem existir pessoas que não se encaixam nos padrões detetados, cuja identificação requer um grau de empatia e sensibilidade que apenas outro ser humano pode oferecer. Por outro lado, enquanto um algoritmo pode sugerir ações a seguir, a validação e aplicação dessas ações terá de ser feita por pessoas, em relação com outras pessoas, com toda a subjetividade inerente às relações humanas.
E esta ideia não se aplica só a estes casos mais extremos: por exemplo, gerir a relação com um cliente insatisfeito pode também requerer um grau de sensibilidade que complemente ou até mesmo contrarie a ação sugerida pelo algoritmo.
No entanto, isto não quer dizer que os algoritmos de data science devam ser descartados. Pelo contrário: podem ser uma ferramenta fundamental para destruir preconceções, sugerir novos caminhos, gerir clientes e identificar casos invisíveis ao "olho" humano. Sublinhar apenas que não devemos entregar todo o poder de decisão a um algoritmo, sendo fundamental deixar espaço para fatores de decisão mais subjetivos.
2. O processo de desenvolvimento de algoritmos de data science integra subjetividade humana
Embora por vezes tenhamos tendência a olhar para os algoritmos de data science como algo totalmente objetivo, é importante reconhecer que estes também têm uma componente subjetiva que decorre do seu próprio desenvolvimento. De facto, aspetos humanos menos objetivos são também parte integrante do processo de desenvolvimento de modelos de data science.
A qualidade de qualquer modelo de data science começa por ser determinada pela qualidade da pergunta a que lhe dá origem. Dando um exemplo muito simples, perguntar quem são os clientes que irão aderir a uma determinada campanha não é o mesmo que perguntar que campanha tornará que clientes mais satisfeitos. Da mesma forma, a decisão dos dados a recolher, e o formato desses dados decorre também de decisões subjetivas. "Garbage in, garbage out": um algoritmo apenas poderá oferecer bons outputs na medida em que se alimente de dados completos, adequados e não-enviesados, um aspeto que cabe às pessoas garantir.
Em conclusão…
As aplicações de data science irão estar cada vez mais presentes no nosso dia, informando e guiando a tomada de decisão nos mais variados campos. Estas aplicações podem trazer um contributo que vai para além da capacidade humana para analisar e responder a questões complexas. No entanto, importa não só compreender as potencialidades da data science, mas também as suas limitações – reconhecendo a necessidade de incluir uma subjetividade de que (pelo menos para já) apenas os humanos são capazes.