Repensar l'antropologia digital: estructurisme, mediació tecnològica i implicacions epistèmiques i morals

Autors/ores

Resum

El món digital posa en qüestió els conceptes i les categories fonamentals de l’antropologia filosòfica. Els aspectes definitoris i exclusius dels éssers humans perden la seva vigència amb l’aparició d’entitats sintètiques que comparteixen aquestes característiques. En aquest article ens hem proposat de fer una anàlisi filosòfica de l’antropologia digital. Primer, hem examinat les quatre estratègies seguides fins al moment per donar compte de les continuïtats ontològiques entre éssers humans i tecnologies. Defensem que cap d’elles resulta convincent per dues raons: les tres primeres redueixen l’antropologia a ontologia i la darrera en descarta completament la dimensió ontològica. Per això, ens hem ocupat, en segon lloc, de desenvolupar un nou enfocament antropològic que expliqui d’una manera més reeixida el món digital, és a dir, una concepció estructurista que entengui l’ésser humà com un ésser biopsicosocial obert a entaular relacions amb altres entitats. Això ens ha portat, en tercer lloc, a desenvolupar els aspectes relacionals del món digital a través del concepte de mediació tecnològica. La noció d’informació que introdueixen les noves tecnologies media d’una manera qualitativament nova la nostra acció i percepció: produeix entorns digitals tancats, inclina a la igualtat informacional i indueix dinàmiques de descontextualització. Finalment, hem desenvolupat les implicacions epistèmiques, la postveritat, i ètiques, els canvis tecnomorals, de la mediació tecnològica digital.

Paraules clau

antropologia digital , reontologització, informació, estructura humana, mediació tecnològica

Referències

ANDERAU, Glenn (2023). «Fake news and epistemic flooding». Synthese, 202 (4), 106. https://doi.org/10.1007/s11229-023-04336-7

ANDREOTTA, Adam J. (2021). «The hard problem of AI rights». AI & Society, 36, 19-32. https://doi.org/10.1007/s00146-020-00997-x

BADDINO (2022). Bubbles and Chambers: Post-Truth and Belief Formation in Digital Social-Epistemic Environments [Preprint]. Recuperado de https://philsci-archive.pitt.edu/20235/

BEGBY, Endre (2022). «From Belief Polarization to Echo Chambers: A Rationalizing Account». Episteme, 1-21. https://doi.org/10.1017/epi.2022.14

BEORLEGUI, Carlos (2011). «La singularidad del ser humano como animal bio-cultural». Revista Realidad, 129, 443-480.

BEORLEGUI, Carlos (2018). «La singularidad humana en entredicho». En: GARCÍA ROJO, Jesús (ed.). Pensar el hombre: La teología ante los nuevos planteamientos antropológicos. Madrid: PPC, 37-77.

BEORLEGUI, Carlos (2021). Nuevas tecnologías, trans/posthumanismo y naturaleza humana. Granada: Comares.

BERNARD, Ray (2019). «Deep Learning to the Rescue». Ray Bernard Consulting Services. Recuperado el 20 de febrero de 2024 de https://www.go-rbcs.com/columns/deep-learning-to-the-rescue

BETKER, James; GOH, Gabriel; JONG, Li; BROOKS, Tim; WANG, Jianfeng; OUYANG, Long; ZHUANG, Juntang; LEE, Joyce; GUO, Yufei; MANASSRA, Wesam; DHARIWAL, Prafulla; CHU, Casey; JIAO, Yunxin; RAMESH, Aditya. «Improving Image Generation with Better Captions». DALL-E 3 research paper. OpenAI. Recuperado de https://cdn.openai.com/papers/dall-e-3.pdf

BIRD, Alexander (2007). Nature’s Metaphysics: Laws and Properties. Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780199227013.001.0001

CASSIRER, Ernst (1944). Antropología filosófica. México D. F.: Fondo de Cultura Económica, 2004.

CHANGEUX, Jean-Pierre; GOULAS, Alexandros y HILGETAG, Claus C. (2021). «A Connectomic Hypothesis for the Hominization of the Brain». Cerebral Cortex, 31, 2425-2449. https://doi.org/10.1093/cercor/bhaa365

CHOI, Rene Y.; COYNER, Aaron S.; KALPATHY-CRAMER, Jayashree; CHIANG, Michael F. y CAMPBELL, J. Peter (2020). «Introduction to Machine Learning, Neural Networks, and Deep Learning». Translational Vision Science & Technology, 9 (4). https://doi.org/10.1167/tvst.9.2.14

COECKELBERGH, Mark (2012). Growing moral relations: Critique of moral status ascription. Nueva York: Palgrave Macmillan.

COECKELBERGH, Mark (2022). The Political Philosophy of AI. Cambridge: Polity Press.

CONILL, Jesús (2023). «Objetividad e intersubjetividad». En: NICOLÁS, Juan-Antonio; BALLESTEROS-AGUAYO, Lucía y LINARES-PERALTA, Raúl (eds.). Diccionario posverdad. Granada: Comares, 118-119.

DANAHER, John (2019). «The rise of the robots and the crisis of moral patiency». AI & Society, 34 (1), 129-136. https://doi.org/10.1007/s00146-017-0773-9

DANAHER, John y SÆTRA, Henrik S. (2023). «Mechanisms of Techno-Moral Change: A Taxonomy and Overview». Ethical Theory and Moral Practice, 26, 1-22. https://doi.org/10.1007/s10677-023-10397-x

DESCARTES, René (1641). Meditaciones metafísicas. Madrid: Alianza, 2011.

DIÉGUEZ, Antonio (2019). Transhumanismo: La búsqueda tecnológica del mejoramiento humano. Barcelona: Herder.

DREYFUS, Hubert L. (1992). What computers still can’t do: A Critique of Artificial Reason. Cambridge: MIT Press.

DREYFUS, Hubert L. (2007). «Why Heideggerian AI failed and how fixing it would require making it more Heideggerian». Philosophical Psychology, 20, 247-268. https://doi.org/10.1080/09515080701239510

ECHEVERRÍA, Javier y ALMENDROS, Lola S. (2020). Tecnopersonas: Cómo nos transforman las tecnologías. Gijón: Ediciones Trea.

ESCHENBACH, Warren J. von (2021). «Transparency and the Black Box Problem: Why We Do Not Trust AI». Philosophy & Technology, 34, 1607-1622. https://doi.org/10.1007/s13347-021-00477-0

FANTL, Jeremy (2018). The Limitations of the Open Mind. Nueva York: Oxford University Press.

FASS, John (2015). «Social Network Analysis». Research Imaginings. Recuperado el 20 de febrero de 2024 de https://researchimaginings.com/2015/03/02/social-network-analysis/

FEENBERG, Andrew (1991). Critical theory of technology. Oxford: Oxford University Press.

FEENSTRA, Ramón (2023). «Cámaras de eco». En: NICOLÁS, Juan Antonio; BALLESTEROS-AGUAYO, Lucía y LINARES-PERALTA, Raúl (eds.). Diccionario posverdad. Granada: Comares, 31.

FERRARIS, Maurizio (2017). Posverità et altri enigmi. Bolonia: Il Mulino.

FERRARIS, Maurizio (2021). Documanità: Filosofia del mondo nuovo. Roma: Laterza & Figli.

FLORIDI, Luciano (1999). «Information ethics: On the philosophical foundation of computer ethics». Ethics and Information Technology, 1 (1), 33-52. https://doi.org/10.1023/A:1010018611096

FLORIDI, Luciano (2008). «Artificial intelligence’s new frontier: Artificial companions and the fourth revolution». Metaphilosophy, 39 (4‐5), 651-655. https://doi.org/10.1111/j.1467-9973.2008.00573.x

FLORIDI, Luciano (2013). The philosophy of information. Oxford: Oxford University Press.

FLORIDI, Luciano (2014). The fourth revolution: How the infosphere is reshaping human reality. Oxford: Oxford University Press.

FRITTS, Megan y CABRERA, Frank (2021). «AI recruitment algorithms and the dehumanization problem». Ethics and Information Technology, 23, 791-801. https://doi.org/10.1007/s10676-021-09615-w

FRÖDING, Barbro y PETERSON, Martin (2012). «Why virtual friendship is no genuine friendship». Ethics and Information Technology, 14, 201-207. https://doi.org/10.1007/s10676-011-9284-4

GADAMER, Hans-Georg (1991). Verdad y método. Salamanca: Sígueme.

GEHLEN, Arnold (1974). El hombre: Su naturaleza y su lugar en el mundo. Salamanca: Sígueme, 1980.

GELLERS, Josh C. (2020). Rights for robots: Artificial intelligence, animal and environmental law. Oxfordshire: Routledge.

GODFREY-SMIT, Peter (2014). Philosophy of Biology. Princeton: Princeton University Press.

GROYS, Boris (2016). Arte en flujo: ensayos sobre la evanescencia del presente. Buenos Aires: Caja negra.

GUNKEL, David (2012). The machine question: Critical perspectives on AI, robots, and ethics. Cambridge: MIT Press.

GUNKEL, David (2018). Robot rights. Cambridge: MIT Press.

HARAWAY, Donna (1983). Manifiesto Cíborg. Madrid: Kaótica Libros, 2020.

HARRIS, John (2007). Enhancing Evolution: The Ethical Case for Making Better People. Princeton: Princeton University Press.

HAUGELAND, John (1989). Artificial intelligence: The very idea. Cambridge: MIT Press.

IHDE, Don (1979). Technics and Praxis. Dordrecht: Reidel.

IHDE, Don (1990). Technology and the Lifeworld. Indiana: Indiana University Press.

INTRONA, Lucas D. (2014). «Towards a post-human intra-actional account of sociomaterial agency (and morality)». En: KROES, Peter y VERBEEK, Peter-Paul (eds.). The Moral Status of Technical Artefacts. Dordrecht: Springer, 31-53. https://doi.org/10.1007/978-94-007-7914-3_3

KÄRKI, Kaisa (2024). «Digital Distraction, Attention Regulation, and Inequality». Philosophy & Technology, 37, 8. https://doi.org/10.1007/s13347-024-00698-z

LACKEY, Jennifer (2018). «True Story: Echo Chambers Are Not the Problem». Morning Consult. Recuperado el 22 de febrero de 2024 de https://morningconsult.com/opinions/true-story-echo-chambers-not-problem/

LAÍN ENTRALGO, Pedro (1991). Cuerpo y alma. Madrid: Espasa-Calpe.

LATOUR, Bruno (1991). Nunca fuimos modernos: Ensayos de antropología simétrica. Ciudad de México: Siglo XXI, 2022.

LATOUR, Bruno (1992). «Where are the missing masses?: The sociology of a few mundane artifacts». En: BIJKER, Wiebe E. y LAW, John (eds.). Shaping technology/building society: Studies in sociotechnical change. Cambridge: MIT Press, 225-258.

LINARES-PERALTA, Raúl (2023a). «Burbuja epistémica». En: NICOLÁS, Juan-Antonio; BALLESTEROS-AGUAYO, Lucía y LINARES-PERALTA, Raúl (eds.). Diccionario posverdad. Granada: Comares, 27-28.

LINARES-PERALTA, Raúl (2023b). «Hermenéutica, posverdad y ‘realismos’: Un enfoque desde Zubiri». En: NICOLÁS, Juan-Antonio y LINARES-PERALTA, Raúl (eds.). Zubiri en tiempos de posverdad. Madrid: Ápeiron. Estudios de Filosofía.

LINARES-PERALTA, Raúl y NICOLÁS, Juan Antonio (eds.) (2024). Post-Truth: A Multidisciplinary Approach. Cambridge: Cambridge Scholars Publishing LTD.

LLORCA ALBAREDA, Joan (2023). «El estatus moral de las entidades de inteligencia artificial». Disputatio: Philosophical Research Bulletin, 12 (24), 241-249. https://doi.org/10.5281/zenodo.8140967

LLORCA ALBAREDA, Joan (2024). «Anthropological Crisis or Crisis in Moral Status: A Philosophy of Technology Approach to the Moral Consideration of Artificial Intelligence». Philosophy & Technology, 37 (1), 12. https://doi.org/10.1007/s13347-023-00682-z

LLORCA ALBAREDA, Joan; GARCÍA, Paloma y LARA, Francisco (2024). «The Moral Status of AI Entities». En: LARA, Francisco y DECKERS, Jan (eds.). Ethics of Artificial Intelligence. Cham: Springer, 59-83. https://doi.org/10.1007/978-3-031-48135-2_4

MAZLISH, Bruce (1995). La cuarta discontinuidad: La coevolución de hombres y máquinas. Madrid: Alianza.

MILL, John Stuart (1865). An Examination of Sir William Hamilton’s Philosophy. Toronto: University of Toronto Press, 1979.

MINH, Dang; WANG, Xiang; LI, Y. Fen y NGUYEN, Tan N. (2022). «Explainable artificial intelligence: a comprehensive review». Artificial Intelligence Review, 55, 3503-3568. https://doi.org/10.1007/s10462-021-10088-y

MONTORO MONTARROSO, Andrés; CAMACHO, David; MARTÍN, Alejandro; TORREGROSA, Javier; ROSSO, Paolo; CHULVI, Berta; REMENTERÍA, María J.; CALVO FIGUERAS, Blanca; PHILIPPE, Olivier; MOLINA SOLANA, Miguel; CANTÓN CORREA, Javier y GÓMEZ ROMERO, Juan (2023). «Is the ‘AI toolbox for disinformation’ ready?». IBERIFIER [Informe].

MOSAKAS, Kestutis (2021). «On the moral status of social robots: Considering the consciousness criterion». AI & Society, 36 (2), 429-443. https://doi.org/10.1007/s00146-020-01002-1

MÜLLER, Vincent C. (2021). «Is it time for robot rights?: Moral status in artificial entities». Ethics and Information Technology, 23 (4), 579-587. https://doi.org/10.1007/s10676-021-09596-w

MUMFORD, Stephen (2004). Laws in Nature. Londres: Routledge.

NGUYEN, Thi C. (2020). «Echo Chambers and Epistemic Bubbles». Episteme, 17 (2), 141-161. https://doi.org/10.1017/epi.2018.32

NICOLÁS, Juan-Antonio (2019). «Posverdad: Cartografía de un fenómeno complejo». Diálogo Filosófico, 35 (105), 302-340. Recuperado de https://www.dialogofilosofico.com/index.php/dialogo/article/view/159

NICOLÁS, Juan-Antonio (2023). «Posverdad». En: NICOLÁS, Juan-Antonio; BALLESTEROS-AGUAYO, Lucía y LINARES-PERALTA, Raúl (eds.). Diccionario posverdad. Granada: Comares, 136-137.

NILSSON, Nils J. (2009). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge: Cambridge University Press.

O’CONNOR, Timothy (1994). «Emergent Properties». American Philosophical Quarterly, 31 (2), 91-104.

ORTEGA Y GASSET, José (2004-2010). «Historia como sistema». En: Obras completas, VI. Barcelona: Taurus.

PALOMO, Miguel (2021a). «How disinformation kills: Philosophical challenges in the post-Covid society». History and Philosophy of the Life Sciences, 43 (51). https://doi.org/10.1007/s40656-021-00408-4

PALOMO, Miguel (2021b). «Incidencias filosóficas actuales en la sociedad digital: Ideologías, desinformación y confusión epistemológica». Arbor: Ciencia, Pensamiento y Cultura, 197 (802), a630. https://doi.org/10.3989/arbor.2021.802008

PARISER, Eli (2011). The filter bubble: What the Internet is hiding from you. Nueva York: Penguin Press.

PLESSNER, Helmuth (1928). Los grados de lo orgánico y el hombre: Introducción a la antropología filosófica. Granada: Universidad de Granada, 2022.

PLOENNIGS, Joern y BERGER, Markus (2023). «AI art in architecture». AI in Civil Engineering, 2 (8), 1-11. https://doi.org/10.1007/s43503-023-00018-y

ROBSON, Jon (2014). «A social epistemology of aesthetics: Belief polarization, echo chambers and aesthetic judgement». Synthese, 191, 2513-2528. https://doi.org/10.1007/s11229-014-0437-y

RODRÍGUEZ LÓPEZ, Blanca (2024). «Ethics of Virtual Reality». En: LARA, Francisco y DECKERS, Jan (eds.). Ethics of Artificial Intelligence. Cham: Springer, 109-127. https://doi.org/10.1007/978-3-031-48135-2_6

SABBAGH, Karim; FRIEDRICH, Roman; EL-DARWICHE, Bahjat; SINGH, Milind; GANEDIWALLA, Sandeep y KATZ, Raul (2012). «Maximizing the impact of digitization». The Global Information Technology Report, 121-133.

SÆTRA, Henrik S. (2021). «Social robot deception and the culture of trust». Paladyn, Journal of Behavioral Robotics, 12 (1), 276-286. https://doi.org/10.1515/pjbr-2021-0021

SANTOS, Gil C. (2015). «Ontological Emergence: How Is That Possible? Towards a New Relational Ontology». Foundations of Science, 20 (4), 429-446. https://doi.org/10.1007/s10699-015-9419-x

SCHELER, Max (1928). El puesto del hombre en el cosmos. Madrid: Guillermo Escolar Editor, 2017.

SEARLE, John (1980). «Minds, brains, and programs». Behavioral and Brain Sciences, 3 (3), 417-424. https://doi.org/10.1017/S0140525X00005756

SHEEKS, Meredith (2023). «The Mith of the Good Epistemic Bubble». Episteme, 20 (3), 685-700. https://doi.org/10.1017/epi.2022.52

SINGER, Peter (2011). Liberación animal: El clásico definitivo del movimiento animal. Madrid: Santillana.

SWIERSTRA, Tsjalling; STEMERDING, Dirk y BOENINK, Marianne (2009). «Exploring techno-moral change: The case of the obesitypill». En: SOLLIE, Paul y DÜWEL, Marcus (eds.). Evaluating New Technologies: Methodological Problems for the Ethical Assessment of Technology Developments. Cham: Springer, 119-138. https://doi.org/10.1007/978-90-481-2229-5_9

TEGMARK, Max (2018). Vida 3.0: Qué significa ser humano en la era de la inteligencia artificial. Barcelona: Taurus, 2017.

THE CHIMPANZEE SEQUENCING AND ANALYSIS CONSORTIUM (2005). «Initial sequence of the chimpanzee genome and comparison with the human genome». Nature, 437, 69-87. https://doi.org/10.1038/nature04072

TURING, Alan Mathison (1950). «Computing machinery and intelligence». Mind, 59 (236), 433-460.

UEXKÜLL, Jakob von (1909). Umwelt und Innenwelt der Tiere. Berlín: Verlag von Julius Springer.

VALLE, Juan Ignacio del; LLORCA ALBAREDA, Joan y RUEDA, Jon (2024). «Ethics of Virtual Assistants». En: LARA, Francisco y DECKERS, Jan (eds.). Ethics of Artificial Intelligence. Cham: Springer, 87-107. https://doi.org/10.1007/978-3-031-48135-2_5

VERBEEK, Peter P. (2005). What Things Do: Philosophical reflections on technology, agency, and design. Filadelfia: Penn State Press.

VERBEEK, Peter P. (2008). «Obstetric ultrasound and the technological mediation of morality: A postphenomenological analysis». Human Studies, 31 (1), 11-26. https://doi.org/10.1007/s10746-007-9079-0

VOSOUGHI, Soroush; ROY, Deb y ARAL, Sinan (2018). «The spread of true and false news online». Science (American Association for the Advancement of Science), 359 (6380), 1146-1151. https://doi.org/10.1126/science.aap9559

WAGNER, Astrid (2021). «Cognitive Vulnerability and the Post-Truth Challenge». En: GONZÁLEZ-CASTÁN, O. L. (ed.). Cognitive Vulnerability: An Epistemological Approach. Berlín: De Gruyter, 159-176.

WAGNER, Astrid (2022). «Retos filosóficos de las sociedades digitales: esbozo de un enfoque sistémico». Dilemata, 38, 13-29. Recuperado de https://dilemata.net/revista/index.php/dilemata/article/view/412000497

ZUBIRI, Xavier (1962). Sobre la esencia. Madrid: Alianza.

ZUBIRI, Xavier (1980). Inteligencia sentiente: Inteligencia y realidad. Madrid: Alianza.

ZUBIRI, Xavier (1986). Sobre el hombre. Madrid: Alianza.

ZUBIRI, Xavier (1989). Estructura dinámica de la realidad. Madrid: Alianza.

ZUBIRI, Xavier (2002). Sobre el problema de la filosofía y otros escritos (1932-1944). Madrid: Alianza.

Biografies de l'autor/a

Raúl Linares-Peralta, Universidad de Granada

Raúl Linares-Peralta és graduat en Filosofia i màster en Filosofia Contemporània per la Universitat de Granada, i va ser tècnic investigador amb càrrec al projecte Postveritat a debat: Reconstrucció social després de la pandèmia (P20_00703). Actualment és investigador predoctoral FPU (Ministeri d’Universitats) i co-IP del projecte de recerca per a doctorands Posthumanisme i postveritat: Reptes davant la transformació tecnològica de la societat (PPJIB2023- 021). La seva recerca aborda els problemes filosòfics entorn de la postveritat i proposa alternatives des del desenvolupament del pensament de Xavier Zubiri en discussió amb corrents filosòfics contemporanis, com l’hermenèutica, la fenomenologia i el nou realisme. És coordinador de la col·lecció «Filosofia Avui» (Comares), del Boletín Veritas (http://leibniz.es/ boletin-veritas/) i del Seminari de Filosofia Espanyola Contemporània: X. Zubiri (Universitat de Granada), així com editor del Diccionario posverdad (Comares, 2023), de Zubiri en tiempos de posverdad (Ápeiron, 2023) y de Post-truth: A Multidisciplinary Approach (Cambridge S. P., 2024). ORCID: https://orcid.org/0000-0002-1706-2190

Joan Llorca Albareda, Universidad de Granada

Joan Llorca Albareda és graduat en Filosofia, Política i Economia per la Universitat Carles III de Madrid (va cursar el primer any a la Universitat Pompeu Fabra de Barcelona, a segon i a tercer va fer assignatures a la Universitat Autònoma de Madrid i a quart va fer un Erasmus a la Universitat de Bristol). També va obtenir dos màsters oficials, el màster de Teoria Política i Cultura Democràtica i el màster d’Ètiques Aplicades, tots dos per la Universitat Complutense de Madrid. Després de treballar un any i mig com a investigador contractat amb càrrec al projecte SOCRAI+ (Millora Moral i Intel·ligència Artificial: Aspectes Ètics d’un Assistent Virtual Socràtic / Ref.: B-HUM-64-UGR20), ha obtingut un contracte FPU finançat pel Ministeri d’Universitats. La seva tesi està dirigida pel professor Francisco Lara i versa sobre l’estatus moral de les entitats d’intel·ligència artificial.

Publicades

2024-07-25

Com citar

Linares-Peralta, R., & Llorca Albareda, J. (2024). Repensar l’antropologia digital: estructurisme, mediació tecnològica i implicacions epistèmiques i morals. Enrahonar. An International Journal of Theoretical and Practical Reason, 73, 165–194. https://doi.org/10.5565/rev/enrahonar.1577

Descàrregues

Les dades de descàrrega encara no estan disponibles.

Funding data