Localização
Datas
Call for papers
Publicações
Submissão
Comissão
Registro
Viagem e acomodações
Programa
Contacto
O ETHICOMP promoveu uma comunidade internacional de acadêmicos, tecnólogos e profissionais da indústria dedicados a explorar as dimensões éticas da computação. O ETHICOMP serve como uma plataforma para o diálogo interdisciplinar, abordando aspectos filosóficos, profissionais e práticos da ética da computação. Nossas conferências moldaram significativamente os padrões e práticas éticas na era digital.
Organizado por:
Universidade Autónoma de Lisboa
Universidade Complutense de Madrid
Universidad Rovira i Virgili, Tarragona
Universidade de Barcelona
Tba
ETHICOMP 2025 will take place in Lisbon, the capital of Portugal. The venue will be the Palácio dos Condes de Redondo, Universidade Autónoma de Lisboa Luís de Camões.
Prazo para submissão de resumos estendidos: 15 de janeiro de 2025
Revisões devidas (aceitar/aceitar com alterações/rejeitar): 1º de março de 2025
Prazo para reenvios (aceite com alterações): 1º de abril de 2025
Revisões finais vencidas (aceite com alterações): 15 de abril de 2025
Submissão de artigos completos: 16 de junho de 2025
Conferência: 17 a 19 de setembro de 2025
Como nas conferências anteriores do ETHICOMP, apenas artigos escritos em inglês e não publicados nem submetidos em outro lugar serão aceitos com base em um resumo estendido após uma revisão cuidadosa e anônima supervisionada pelo Comitê do Programa. Os autores podem enviar mais de um resumo, mas a aceitação de várias propostas de um único autor ou coautor será ponderada em relação ao espaço disponível para garantir que possamos incluir o maior número possível de autores para o ETHICOMP 2025. Pelo menos um dos autores deve se inscrever e participar da conferência, apresentando seu trabalho. Os autores podem ser convidados a apresentar seus trabalhos na conferência como uma apresentação regular (cada palestra 15min apresentação + 15min perguntas e debate) ou como parte de um painel (sessão de 90min com até 6 artigos, apresentação 5-10min + perguntas e debate do painel aberto).
Detalhes sobre a formatação e o estilo dos trabalhos finais para os anais da conferência serão publicados no site da conferência (https://autonoma.pt/en/xxx). Os resumos e artigos completos serão submetidos e revisados através do EasyChair. Detalhes completos do processo de inscrição estão disponíveis no site da conferência.
1. Pista Aberta (Dra. Shalini Kesar, Southern Utah University, kesar@suu.edu; e Orlando Lima Rua, Politécnico do Porto, orua@iscap.ipp.pt; Adrian-Horia Dediu, Universidade Autónoma de Lisboa, adediu@autonoma.pt)
Qualquer tópico em ética computacional, amplamente interpretado. Tópicos relacionados ao campo da ética computacional, concebidos de forma ampla, para incluir aspectos filosóficos, profissionais e práticos do campo.
2. Vamos reavaliar as melhores práticas de segurança cibernética (Shalini Kesar, Southern Utah University, kesar@suu.edu; e Sabina Szymoniak Czestochowa University of Technology, sabina.szymoniak@icis.pcz.pl)
A sociedade de hoje está se tornando mais dependente da tecnologia, onde organizações e indivíduos não podem funcionar sem dispositivos inteligentes em suas vidas diárias. Hoje em dia, a integração de Inteligência Artificial (IA), Machine Learning (ML) e Internet das Coisas (IoT) está desempenhando um papel fundamental na definição das melhores práticas de segurança cibernética. Por exemplo, os sistemas de detecção de ameaças, detecção de anomalias e resposta automatizada com inteligência artificial estão se tornando mais sofisticados na identificação e mitigação de ameaças cibernéticas, bem como na criação de ameaças e vulnerabilidades. Para gerenciar e minimizar essas ameaças de dados, é importante que as organizações reavaliem suas estratégias e práticas recomendadas de segurança cibernética. Esta trilha convida artigos que discutem as novas tendências em segurança cibernética, juntamente com suas implicações éticas da interação digital quando as organizações estão desenvolvendo as melhores práticas.
3. Desafios éticos das relações humanas na educação na era da IA (Mario Arias-Oliva, Universidade Complutense de Madrid Mar Souto-Romero, Universidad Rey Juan Carlos de Madrid, mario.arias@ucm.es; Antonio Pérez-Portabella, Universitat Rovira i Virgili Graciela Padilla Castillo, Universidade Complutense de Madrid; antonio.perezportabella@urv.cat)
As tecnologias digitais oferecem inúmeros benefícios para as relações educacionais, incluindo comunicação aprimorada, colaboração e acesso a recursos. No entanto, eles também apresentam desafios que educadores, alunos e formuladores de políticas devem enfrentar com cuidado para garantir resultados positivos e equitativos. As relações professor-aluno mudaram, com os professores se tornando facilitadores em vez de únicas fontes de conhecimento. Embora a tecnologia melhore a comunicação entre alunos, professores e pais, ela também pode afetar o relacionamento com os colegas, onde a colaboração online pode levar à redução da interação face a face. A comunicação digital excessiva pode diminuir a empatia e as habilidades sociais, embora as comunidades virtuais possam promover um sentimento de pertencimento na educação online. Além disso, a integração da inteligência artificial (IA) na educação introduz novas dimensões a essas relações. Os sistemas de tutoria e chatbots com inteligência artificial podem fornecer suporte personalizado aos alunos, mas também levantam preocupações sobre o papel dos educadores humanos e a potencial perda de conexão humana no processo de aprendizagem. Esta trilha recebe submissões que explorem o impacto multifacetado das tecnologias digitais na educação em geral, incluindo contribuições sobre relações humanas digitais na educação, como mudanças na dinâmica professor-aluno, interações entre pares, orientação, comunidades virtuais e as implicações éticas da IA em ambientes de aprendizagem.
4. Gênero e Tecnologias Digitais Futuras (Shalini Kesar, Southern Utah University, kesar@suu.edu)
Com tecnologias emergentes, como Inteligência Artificial e Internet das Coisas, é importante explorar o papel do gênero, pois a disparidade pode criar barreiras ao gerenciar e sustentar as tecnologias digitais. Diversas perspectivas e inovação tecnológica podem ajudar a superar desafios para o crescimento econômico, produtividade, resolver problemas tecnológicos complexos, impulsionar a inovação e moldar o futuro da tecnologia em vários setores. Esta trilha recebe propostas de artigos de acadêmicos de todos os campos, bem como profissionais, formuladores de políticas, educadores e outros cujo trabalho ou experiências coincidam com este tema.
5. Os desafios normativos da alfabetização em IA (Ludovica Paseri, UNITO, ludovica.paseri@unito.it; e Ugo Pagallo, UNITO, ugo.pagallo@unito.it)
O ritmo acelerado do desenvolvimento da IA leva à necessidade de investigações sobre as interações homem-máquina e máquina-a-máquina. Explorar as implicações éticas e legais das interações mediadas por IA é fundamental para salvaguardar os direitos fundamentais e humanos. Além dos desafios relacionados ao uso indevido ou abuso da IA, um tópico frequentemente pouco pesquisado, mas altamente relevante, é a alfabetização em IA. A relevância do tópico é mostrada pela Seção 10.2 lett. (d) vii da Ordem Executiva da Casa Branca sobre o Desenvolvimento e Uso Seguro, Protegido e Confiável da IA de outubro de 2023, e pelo Artigo 4 da Lei de IA (Reg. UE 2024/1689) na legislação da UE, que diz respeito à ‘alfabetização em IA’, declarando que “Os provedores e implantadores de sistemas de IA devem tomar medidas para garantir, na melhor sua medida, um nível suficiente de alfabetização em IA de sua equipe e de outras pessoas que lidam com a operação e uso de sistemas de IA em seu nome”. Nesse contexto, é crucial questionar as implicações normativas da alfabetização em IA, examinando a responsabilidade e a aplicabilidade da Ordem Executiva dos EUA e do Artigo 4 da Lei de IA; os vários modelos de alfabetização em IA; riscos de desigualdade e exclusão digital; as desvantagens sociais decorrentes da falta de habilidades e competências digitais, etc. A trilha está aberta a inscrições com o objetivo de discutir a alfabetização em IA de um ponto de vista interdisciplinar para contribuir com o debate sobre usos responsáveis e confiáveis da IA em diferentes áreas, como saúde, educação, pesquisa científica e indústria, entre outras.
6. (Des)estigmatizar interações e tecnologias digitais (Adam Poulsen, Centro do Cérebro e da Mente, Universidade de Sydney, adam.poulsen@sydney.edu.au; Frank Iorfino, Centro de Cérebro e Mente, Universidade de Sydney, frank.iorfino@sydney.edu.au)
As interações e tecnologias digitais perpetuam ou desafiam o estigma. Por exemplo, o estigma persistente em torno da saúde mental leva os jovens a recorrer às mídias sociais para obter informações e apoio sobre saúde mental. No entanto, eles encontram moderação ou assédio tendencioso de conteúdo de mídia social que afeta negativamente grupos estigmatizados que discutem, por exemplo, questões LGBTQ+ ou saúde mental. Como outro exemplo, os robôs sexuais apresentam uma oportunidade de promover os direitos sexuais de grupos vulneráveis, como aqueles com deficiência física ou idosos. No entanto, o tema dos robôs sexuais permanece estigmatizado na academia, na indústria e no público. Esta faixa explora o duplo papel das interações e tecnologias digitais na exacerbação e combate ao estigma. Convida submissões que abordem interações digitais estigmatizadas (por exemplo, uso de robôs sexuais e pornografia de realidade virtual); interações digitais de redução do estigma (por exemplo, recursos de saúde mental online e busca de ajuda); barreiras baseadas em estigma para interações digitais (por exemplo, normas e estereótipos culturais); e a perpetuação ou desafio do preconceito contra grupos estigmatizados por meio de interações digitais (por exemplo, a promoção ou desmantelamento do ativismo digital online entre grupos estigmatizados, apoiando ou dificultando os direitos, defesa, construção de comunidades e empoderamento). Esta trilha também recebe artigos sobre implicações e tópicos éticos relacionados, incluindo equidade, igualdade, equidade, justiça, acesso, (in)visibilidade, cyberbullying, anonimato e segurança.
7. Inteligência Artificial: Interpretabilidade e Medição de sua Ética Subjacente (Ramón Carrasco, Universidade Complutense de Madri, ramoncar@ucm.es)
A capacidade da inteligência artificial (IA) de passar no teste de Turing é agora uma realidade indiscutível. Isso indica que a IA atingiu um nível de semelhança com o comportamento humano em vários aspectos, incluindo a capacidade de falar, raciocinar e até mesmo exibir um grau de criatividade. No entanto, a consciência continua sendo um desafio separado. Embora atualmente pareça improvável que a IA possa desenvolver a verdadeira consciência com a tecnologia existente, é plausível que ela possa imitar a consciência de forma convincente, potencialmente passando por um hipotético “teste de consciência”. A rápida evolução da IA sugere sua integração em muitas atividades que antes eram realizadas exclusivamente por humanos. Essa transição levanta dois desafios críticos, que este seminário visa abordar: 1) Interpretabilidade da Inteligência Artificial: Entender como e por que a IA toma decisões é essencial para construir confiança em seu uso. Isso pode ser alcançado por meio de abordagens como inteligência artificial explicável (XAI); 2) Medição da Ética em IA: Dada a crescente autonomia da IA, é crucial avaliar, por exemplo, se suas decisões são justas, transparentes e responsáveis. A avaliação dessas dimensões éticas garante que a IA se integre de forma responsável à sociedade. Este seminário procura explorar estes dois tópicos, fomentando um diálogo interdisciplinar que incentive o desenvolvimento de uma IA mais compreensível e eticamente responsável.
8. Valores: a base para tecnologia responsável e interações digitais (Kirsten Wahlstrom, University of South Australia, kirsten.wahlstrom@unisa.edu.au; Mamello Thinyane, Universidade da Austrália do Sul, mamello.thinyane@unisa.edu.au)
As Tecnologias de Informação e Comunicação (TICs) permeiam quase todas as esferas da vida e trouxeram mudanças que causam danos a alguns, enquanto beneficiam outros. Um exemplo que destaca os riscos e desafios éticos relacionados aos processos automatizados de tomada de decisão é o sistema Horizon dos Correios do Reino Unido, que foi um sistema de contabilidade desenvolvido pela Fujitsu. A Horizon teve falhas que levaram os Correios a empreender ações de cobrança de dívidas contra os postmasters. Muitos outros impactos adversos das TICs foram documentados, incluindo aqueles associados aos recentes avanços da inteligência artificial. Para mitigar esses resultados adversos, muitos instrumentos foram formulados; estes visam infundir valores na concepção, desenvolvimento e implantação das TIC e moldar as interações entre homem e máquina. No entanto, isso não é trivial, pois surgem tensões de valor entre diferentes partes interessadas e em diferentes contextos. Esta trilha convida contribuições teóricas, empíricas e práticas que abordem considerações éticas em todo o ciclo de vida das TIC e que explorem as tensões de valor nas interações humanas e de máquina. Artigos em todos os domínios de aplicação são convidados, com particular interesse em artigos que explorem essas questões no domínio da segurança cibernética e no ensino e na prática profissional.
9. Como a IA está nos mudando? Como isso muda o mundo? (Xenia Ziouvelou – Investigadora Associada do Centro Nacional de Investigação Científica Demokritos (NCSRD-Grécia), Chefe do AI Politeia Lab, xeniaziouvelou@gmail.com)
O poder transformador da tecnologia é inegável, permeando todos os aspectos da vida. Os avanços emergentes em Inteligência Artificial e Inteligência Artificial Generativa estão reescrevendo as regras do que é possível, interrompendo as normas estabelecidas em todos os campos, desde medicina e direito até arte, educação e pesquisa, entre outros. As ferramentas de IA e IA generativa mudam a forma como trabalhamos, aprendemos, criamos arte, conduzimos pesquisas, consumimos e remodelamos a maneira como interagimos com os humanos e com a tecnologia, a maneira como nos comunicamos, socializamos, vivemos e nos comportamos. As interações entre IA, pessoas e sistemas sociais estão remodelando nossas normas e revolucionando a maneira como nossas interações com a tecnologia evoluem e, eventualmente, nos mudam. Embora muito debate tenha sido necessário recentemente para a IA “centrada no ser humano”, são necessárias mais pesquisas sobre as condições sob as quais as tecnologias de IA podem acarretar resultados positivos positivos e negativos para o comportamento humano, agência, autonomia, direitos e liberdade. À medida que a tecnologia está remodelando as sociedades humanas, a necessidade de entender as complexas interações entre IA, humanos e sistemas sociais, bem como as implicações éticas e sociais emergentes, é crucial. Adotando assim uma abordagem antecipatória para o desenvolvimento e governança da IA.
10. Desafios éticos para os negócios em um mundo digital (Pedro Isidoro González Ramírez, Universidad Autónoma de San Luis Potosí, pedro.gonzalez@uaslp.mx; Juan Carlos Yañez Luna, Universidad Autónoma de San Luis Potosí, jcyl@uaslp.mx)
Esta trilha explora a interseção da ética nos negócios e a aplicação da Modelagem de Equações Estruturais (SEM) para avaliar o impacto da tomada de decisões éticas nos resultados organizacionais. À medida que as interações digitais se tornam cada vez mais significativas, entender as dimensões éticas das práticas de negócios é crucial para promover uma sociedade responsável. Convidamos contribuições que examinem como as considerações éticas influenciam a tomada de decisões estratégicas, particularmente no contexto da comunicação digital. A pesquisa que emprega o SEM pode fornecer informações valiosas sobre as relações entre práticas éticas, satisfação do cliente, reputação da marca e desempenho financeiro. Ao integrar estruturas teóricas com análises empíricas, esta trilha visa promover o diálogo sobre a necessidade de incorporar a ética na educação e na prática empresarial. Serão destacados estudos de caso que mostrem aplicações reais da tomada de decisões éticas e suas consequências. Esta trilha busca envolver acadêmicos, profissionais da indústria e pesquisadores emergentes em uma discussão colaborativa, contribuindo para o diálogo contínuo sobre as implicações éticas da tecnologia e dos negócios no mundo interconectado de hoje. Os participantes terão a oportunidade de apresentar suas descobertas, compartilhar experiências e explorar novas metodologias no campo da ética nos negócios.
11. IA, redes sociais e sua influência na juventude (Gonçalo Valadão Matias, Universidade Autónoma, gmatias@autonoma.pt; Isabel Alvarez, Universidade Autónoma, ialvarez@autonoma.pt; e Nuno Silva, Universidade Lusíada, nsas@ulusiada.pt)
Esta trilha explora as implicações éticas da implantação de inteligência artificial em redes sociais usadas principalmente por jovens. À medida que a IA molda cada vez mais as experiências online dos jovens, é crucial examinar as considerações éticas, os impactos potenciais e as salvaguardas necessárias. Buscamos artigos que abordem a complexa interação entre tecnologias de IA, estruturas éticas, plataformas de mídia social, ferramentas de aprendizagem e bem-estar dos jovens. Esta trilha visa promover o diálogo interdisciplinar entre pesquisadores, especialistas em ética, desenvolvedores de IA, cientistas sociais, formuladores de políticas, educadores e defensores da juventude. Aceitamos submissões sobre tópicos que incluem, mas não se limitam a: 1) Considerações éticas na curadoria de conteúdo orientada por IA para usuários jovens; 2) Desafios de privacidade e proteção de dados em redes sociais orientadas para jovens com inteligência artificial; 3) O impacto dos algoritmos de IA na saúde mental e no desenvolvimento dos jovens; 4) Projetar IA eticamente alinhada para plataformas sociais centradas na juventude; 5) Implicações éticas da publicidade direcionada aprimorada por IA para usuários jovens; 6) Transparência e explicabilidade dos sistemas de IA em redes sociais voltadas para jovens; 7) IA, redes sociais e sua influência no engajamento cívico e na participação política dos jovens; 8) Estruturas éticas para o desenvolvimento de IA em plataformas usadas principalmente por jovens e 9) Redes sociais e ferramentas de IA para facilitar o aprendizado e o compartilhamento de conhecimento.
Tba
Os autores podem optar por enviar para a trilha aberta geral ou para uma trilha específica. As submissões iniciais devem assumir a forma de resumos estendidos de 1000 a 1500 palavras. Todos os resumos estendidos aceitos serão publicados em anais com ISBN. Se o resumo estendido for aceito, os autores podem enviar voluntariamente artigos completos (máx. 8000 palavras) que serão publicados como um capítulo de livro na série ETHICOMP.
Congratulamo-nos com perspetivas de pesquisadores em negócios, governo, ciência da computação, sistemas de informação, direito, mídia, antropologia, pedagogia, psicologia, sociologia, ética e filosofia. Artigos interdisciplinares e artigos de novos pesquisadores e profissionais são incentivados. Os artigos podem envolver uma variedade de abordagens, incluindo aquelas com foco conceitual, aplicado, prático ou histórico, bem como estudos de caso e relatórios sobre lições aprendidas na prática.
Comitê Diretivo da ETHICOMP
Ana Maria Lara, Universidad de Burgos, EspanhaAndrew Adams, Universidade
Meiji, JapãoErica L. Neely, Ohio Northern University, EUAJorge Pelegrín-
Borondo, La Rioja University, EspanhaKai Kimppa University of Turkku,
FinlândiaKatleen Gabriels Maastricht University, HolandaKiyoshi Murata Meiji
University, JapãoMario Arias-Oliva, Complutense University of Madrid,
EspanhaNuno Silva, Lusiada University, PortugalRichard Volkman Southern
Connecticut State University, EUAShalini Kesar Southern Utah University,
EUASabina Szymoniak, Universidade Técnica de Czestochowa,
PolôniaWilhelm E. J. Klein , Pesquisador em ética em TIC, Hong Kong
Diretores de conferências
Mario Marques da Silva, Universidade Autonoma de Lisboa
Mario Oliva, Universidade Complutense Madrid
Isabel Alvarez, Universidade Autonoma de Lisboa
Adrian-Horia Dediu, Universidade Autonoma de Lisboa
Nuno Silva, Universidade Lusiada de Lisboa
Coordenadores do Programa
Kiyoshi Murata, Universidade Meiji, Japão
Mario Oliva, Universidade Complutense Madrid
Shalini Kesar, Universidade do Sul de Utah, EUAOrlando Lima Rua, Politécnica
do Porto, Portugal
Comitê Organizador
Presidência da Comissão Organizadora
Reginaldo de Almeida, Vice President of Universidade Autónoma de Lisboa
Mário Marques da Silva, Diretor da Faculdade de TIC
Mario Arias-Oliva, Universidade Complutense de Madrid, Espanha
Isabel Alvarez, Universidade Autónoma de Lisboa
Adrian-Horia Dediu, Universidade Autónoma de Lisboa
Nuno Silva, Universidade Lusiada de Lisboa
Kiyoshi Murata, Universidade Meiji,
Comitê Organizador do Japão
Inês Almeida, Universidade Autónoma de Lisboa
Manuel Serejo, Universidade Autónoma de Lisboa
Cristina Dias, Universidade Autónoma de Lisboa
Pedro Santos, Universidade Autónoma de Lisboa
Ana Trindade, Universidade Autónoma de Lisboa
Diogo Trindade, Universidade Autónoma de Lisboa
Comitê Científico
Adrian-Horia Dediu, Universidade Autónoma de Lisboa
Antonio Fernández Portillo, Universidade da Extremadura, Espanha
Antonio Marturano, Universidade de Roma Tor Vergata, ItáliaAna María Lara-
Palma, Universidad de Burgos, EspanhaAlba García Milon, Universidade de La
Rioja, Espanha
Alejandro Cataldo, Universidade de Talca, ChileAlicia Blanco, Universidade
Rey Juan Carlos, EspanhaAlicia Izquierdo-Yusta, Universidad de Burgos,
EspanhaCamilo Prado Román, Universidade Rey Juan Carlos,
EspanhaCristina Olarte Pascual, Universidade La Rioja, EspanhaDavid Cordon
Benito, Universidade Complutense de Madrid, EspanhaDon Gotternbarn,
Professor Emérito da East Tennessee State University, EUA
Emma Juaneda Ayensa, Universidade de La Rioja, Espanha
Gonçalo Valadão Matias, Universidade Autónoma de Lisboa, Portugal Graciela
Padilla Castillo, Universidad Complutense de Madrid, EspanhaGuadalupe
Manzano-García, Universidade de La Rioja, Espanha
Isabel Alvarez, Universidade Autónoma de Lisboa, PortugalJan Strohschein,
Technische Hochschule Köln, AlemanhaJani Koskinen, Universidade de Turku,
FinlândiaJesús García de Madariaga Miranda, Universidad Complutense de
Madrid, EspanhaJoaquín Sánchez Herrera, Universidade Complutense de
Madrid, EspanhaJorge Gallardo, Universidade Camilo José Cela,
EspanhaJorge Pelegrín-Borondo, Universidade La Rioja, EspanhaJosé Antonio
Fraiz Brea, Universidad de Vigo, Espanha Juan Carlos Yañez Luna,
Universidade Autónoma de San Luis de Potosí, México
Katleen Gabriels, Universidade de Maastricht, Holanda
Kiyoshi Murata, Universidade Meiji, Japão
Luis Blanco Pascual, Universidade de La Rioja, Espanha
Luis Valadares Tavares, Universidade Lusíada de Lisboa, Portugal Luz María
Marín Vinuesa, Universidade La Rioja, EspanhaMaria del Pilar Martínez Ruiz,
Universidade de Castilla – La Mancha, Espanha
Mario Arias-Oliva, Universidade Complutense de Madrid, Espanha
Mario Marques da Silva, Universidade Autónoma de Lisboa, Portugal
Marty J. Wolf, Bemidji State University, EUA
Nehme Khawly, Universidade de Notre Dame, Líbano Nuno Silva, Universidade
Lusíada Universidade Autônoma de San Luis de Potosí, México
Ramón Alberto Carrasco González, Universidade Complutense de Madri,
EspanhaRubén Fernández Ortiz, Universidade de La Rioja, Espanha
Ryoko Asai, Ruhr-Universität Bochum, AlemanhaSabina Szymoniak,
Universidade Técnica de Czestochowa, PolôniaSimon Rogerson, Universidade
De Monfort, Reino Unido.
Shalini Kesar, Southern Utah University, EUA
Sonia Carcelén García, Universidad Complutente de Madrid,
EspanhaStéphanie Gauttier, Grenoble Ecole de Management, FrançaTeresa
Pintado Blanco, Universidad Complutense de Madrid, EspanhaUgo Pagallo,
Universidade de Turim, ItáliaWilliam M. Fleischman, Universidade Villanova,
EUA
Yasunori Fukuta, Universidade Meiji, Japão
Yohko Orito, Universidade Ehime, Japão
Younes Karrouk, Université Abdelmalek Essaadi, Marrocos
A equipe ETHICOMP 2025
Isabel Alvarez, ialvarez@autonoma.pt
Adrian-Horia Dediu, adediu@autonoma.pt
Inês Almeida, ialmeida@autonoma.pt
Nuno Silva, nsas@ulusiada.pt
Shalini Kesar, kesar@suu.edu
Rua Orlando Lima, orua@iscap.ipp.pt