O mundo digital vem criando inúmeras oportunidades a muitas empresas e marcas de se projetarem aquém e além-fronteiras, por força da globalização da internet.

Muitas têm sido as empresas que, limitadas nos seus recursos financeiros, não podiam comunicar o seu negócio nos meios publicitários tradicionais, mas que agora encontram essa oportunidade pela facilidade de exposição aos olhos de quem procura produtos e serviços. Por exemplo, para inúmeras empresas que operam em mercado B2B, o marketing digital serviu de panaceia para resolver um problema de notoriedade.

A parte boa desta realidade é aquela que nos projeta para um incremento da visibilidade do nosso negócio e nos permite atingir mercados que antes estavam esquecidos ou longínquos. Aumentam as leads, os contributos de comentários de clientes, a interação com o mercado e a capacidade para estar mais apto a criar valor para os clientes. É a face da moeda que queremos transmitir, isto é, a cara com que nos pretendemos dar a conhecer.

Mas todas as moedas têm 2 faces: o seu lado obscuro ocorre quando a nossa empresa ou marca se vê confrontada com comentários destrutivos que dificilmente desaparecem se não obedecermos às regras principais da comunicação e nos desfocarmos do essencial. E mesmo assim, nada nos garante que consigamos impedir um passa-palavra negativo, muitas vezes propagado por “influencersanti”, isto é, pessoas cuja missão é ajudar destruir a imagem das marcas aos olhos do mundo. É triste, mas é uma realidade! É a face da coroa.

Todas as empresas e marcas estão sujeitas à crítica, sobretudo se estão cada vez mais expostas. Mas é aqui que se coloca o tema central dos dias de hoje no que concerne ao policiamento dos abusos na comunicação online e à necessidade premente de desenvolver algoritmos através da inteligência artificial que controlem o ódio na comunicação.

Uma das plataformas que enfrenta este desafio de forma constante é o Facebook, que tem ao seu serviço 35.000 moderadores (sempre há lado humano no digital), mas que são insuficientes para controlar toda a comunicação abusiva. Para além disso, a empresa tem investido como nunca em especialistas em inteligência artificial e desenvolvido algoritmos que visam controlar os mais de 2 mil milhões de incidentes com contas falsas.

Enquanto os algoritmos da inteligência artificial levarem meses a descortinarem as mensagens abusivas, o problema só tende a perdurar e aumentar de forma exponencial. E só no dia em que se conseguirem detectar as infrações num espaço de 5 a 10 segundos, é que se vai começar a resolver o problema.

O investimento contínuo em recursos humanos capazes de criar a inteligência artificial com a finalidade de tentar resolver o problema da informação contaminada será uma realidade. Vai levar algum tempo e muito investimento.

Não deixa de ser curioso pensar que são os recursos humanos, com o seu saber e ciência, aqueles a quem incumbe tornar reluzentes as 2 faces da moeda digital.

Comentários

Sobre o autor

Avatar

Pedro Celeste é doutorado em Ciências Económicas e Empresariais pela Universidade Complutense de Madrid, Graduado pela London Business Scholl, MIT Sloan Management Scholl, Harvard Business School, Imperial College of London, Kellogg School of Management, de Chicago, e pelo IESE Business... Ler Mais