A ELA-IA participará pelo segundo ano consecutivo no WSIS+20 High-Level Event, o principal fórum global sobre transformação digital. O evento ocorrerá entre 7 e 11 de julho de 2025, em Genebra, Suíça, e representará uma oportunidade estratégica para fortalecermos parcerias internacionais e posicionarmos nossas iniciativas em âmbito global.
A Sociedade Civil representou 23% das contribuições no processo de consulta, indicando um espaço importante para a voz e influência de ONGs. A região das Américas contribuiu com 19% das submissões.
A Cúpula Mundial sobre a Sociedade da Informação (WSIS) 2025 representa uma das últimas oportunidades para que a sociedade civil organizada influencie diretamente o futuro da governança digital global. Este fórum internacional, que reúne governos, empresas e sociedade civil, é o espaço mais relevante onde podemos lutar por uma internet e tecnologias digitais que deixem de servir exclusivamente o lucro e o controle. Um novo mundo digital é possível!
As linhas de ação do WSIS são o mapa de nossa luta: desde o acesso à informação e a segurança online, até a ética na IA e a cooperação internacional. Vimos avanços, sim, mas os problemas se aprofundam: a divisão digital persiste, a desinformação é uma arma, a privacidade é um luxo e a IA avança sem salvaguardas robustas.
A sessão da ELA-IA dará continuidade ao trabalho apresentado no WSIS+20 em 2024, abordando assimetrias interpretativas geradas por sistemas de IA e algoritmos com foco em comunidades do Sul Global. Será um espaço para diálogos interativos, estudos de caso e desenvolvimento das estratégias práticas que foram parte de nossa proposta no fórum do ano passado.
No Fórum WSIS+20, realizado em Genebra de 27 a 31 de maio de 2024, a ELA-IA apresentou a conferência “Desafios Éticos e Sociais no Tecido Algorítmico – Uma Perspectiva Antropológica”, dentro da linha de ação Dimensões Éticas da Sociedade da Informação. Vinte anos após a primeira Cúpula Mundial sobre a Sociedade da Informação (WSIS), principal fórum global sobre transformação digital, coorganizado pela UNESCO, UNCTAD, PNUD e ITU, surge a pergunta que nos desafia: a revolução tecnológica realmente emancipou a Sociedade da Informação ou ela também foi moldada pelos mesmos velhos mecanismos de dominação?
A tecnologia reflete comportamentos sociais e sistemas de significados — intimamente ligados à nossa liberdade, ou à sua ausência.
Em um mundo mediado por algoritmos, as escolhas de poucos têm consequências profundas para muitos. Falar de algoritmos é falar de poder. Assim como todo tipo de poder, não há neutralidade. Portanto, não se trata apenas de como projetamos a tecnologia, mas para quem ela serve e com que propósito. Precisamos nos questionar: quem escreve os algoritmos? Quem define o que é justo e o que é equitativo?
Como falar de liberdade se não conseguimos nem entender os sistemas que nos aprisionam? Esta é a crise do nosso tempo: a opacidade dos algoritmos e a invisibilidade de seus processos nos alienam das forças que moldam nossa vida, deixando-nos à deriva.
A ELA-IA vem desenvolvendo o conceito de Justiça Hermenêutica Digital, uma crítica essencial à nossa realidade atual. Na era digital, vivemos submetidos a sistemas que nos transformam em sujeitos passivos, em vez de participantes ativos de nossa própria existência. A Justiça Hermenêutica Digital é o chamado para resgatar nossa agência, exigir transparência dos sistemas que nos governam e munir-nos de conhecimento para entender seu impacto.
No WSIS+20 de24, a ELA-IA apresentou quatro propostas que visam transformar essa condição de opacidade — cada uma delas busca desmontar a alienação causada por tecnologias obscuras e reorientar a IA para o bem comum.
Continue essa conversa conosco: formemos grupos de trabalho com interessados para desenvolver cada proposta. Clique abaixo nas propostas de seu interesse e una-se a nós na missão de entrelaçar ética, responsabilidade e justiça hermenêutica digital na era da inteligência artificial.
WSIS ACTION LINE 10: Dimensões Éticas da Sociedade da Informação.
O principal objetivo desta proposta é criar um processo de certificação capaz de avaliar e mensurar os impactos éticos e sociais dos sistemas de inteligência artificial.
O Selo de Qualidade atuará como um instrumento orientador em cada etapa do ciclo de vida de um algoritmo — desde o desenvolvimento, passando pelo design, até a implantação e operação. Em cada uma dessas fases, serão considerados os diferentes atores envolvidos no tecido algorítmico, garantindo transparência e responsabilidade em todas as camadas.
Propomos a criação de uma coalizão do Sul Global para implementar essa medida e direcionar os sistemas de IA para a promoção do bem comum.
Convidamos outras organizações, pesquisadores, empresas e cidadãos a se unirem a nós nessa jornada em prol de uma IA ética, transparente e socialmente responsável.
A proposta da ELA-IA é adotar uma abordagem dupla:
Somente assim poderemos falar em uma cidadania plena na era digital.
Participe da elaboração desses programas de literacia digital e ética e ajude a construir uma cultura em que o digital se torne uma realidade compartilhada e compreensível.
Assim como os folhetos informativos (bulas) acompanhando produtos farmacêuticos, a ELA-IA propõe um sistema de recursos claros e acessíveis que expliquem:
Esses materiais permitirão que os usuários compreendam melhor as tecnologias que impactam suas vidas e defendam seus direitos digitais.
Exija maior transparência em sistemas de IA e apoie iniciativas que tornem os processos algorítmicos compreensíveis para todos.
A ELA-IA está comprometida em construir um futuro digital inclusivo que reconheça e enfrente os desafios únicos do Sul Global. Esta rede reunirá pesquisadores, formuladores de políticas e ativistas para desenvolver diretrizes de IA ética adaptadas às necessidades e realidades regionais.
Participe da criação dessa rede do Sul Global, garantindo que suas vozes sejam centrais na construção do futuro da ética em inteligência artificial.
A rede "Tecnologia Ética no Sul Global" é uma ação política ativa para evitar que atores dominantes “fechem” ou sequestrem o espaço interpretativo, impondo visões únicas e controlando narrativas sobre o futuro.
Usamos cookies para analizar el tráfico del sitio web y optimizar tu experiencia en el sitio. Al aceptar nuestro uso de cookies, tus datos se agruparán con los datos de todos los demás usuarios.