Думки та алгоритми: довіра, нейтральність і легітимність

Автор(и)

  • Юлія Размєтаєва Національний юридичний університет імені Ярослава Мудрого , Україна

DOI:

https://doi.org/10.21564/2707-7039.1.275638

Ключові слова:

алгоритми, цифрові технології, легітимність, нейтральність, думки, агенти, що самостійно визначаються, довіра

Анотація

Статтю присвячено думкам та алгоритмам у цифрову епоху з фокусом на те, як маніпулювання першими при використанні других відбивається на довірі та легітимності. Крім того, деяка увага приділяється проблемі нейтральності як щодо неупереджених думок, так і щодо неупереджених технологій. Стаття піднімає питання про те, чи можемо ми бути агентами, що самостійно визначаються та самоврядними агентами, особливо щодо того, як ми приймаємо рішення та яким думкам довіряємо, якщо нас вміло ведуть до цього алгоритми або ті, хто за ними стоїть.

Враховуючи, що не тільки корпорації, а й уряди сьогодні використовують технології для впливу на наші уподобання та думки, стаття торкається питань автономії та персональних інтересів,

а також проблеми підштовхування до певної поведінки, що визначається як найкраща для людей, у тому числі у патерналістському розумінні. У статті стверджується, що злиття повсякденного життя з цифровими просторами та алгоритмізація формують наш досвід як принципово новий і не сприяють вмінню відокремлювати нав’язані інтереси від справді власних.

Питання того, як перерозподіляється влада та легітимність в умовах цифрового суспільства, залежного від алгоритмів, розглядаються у цьому дослідженні. Висувається припущення про те, що вплив на наші уподобання та управління ними, коли нам намагаються продати певні думки, може бути небезпечнішим, ніж продаж нам товарів та послуг, оскільки руйнує інституційну та міжособистісну довіру та сприяє ерозії публічних інститутів. У дослідженні показано, як деякі технології, насамперед алгоритмічні, які не є нейтральними ні за своєю суттю, ні за тим, як вони використовуються їх творцями та власниками, сприяють сприяють зростанню залежності та збіднюють людську взаємодію й уміння формувати смисли.

Біографія автора

Юлія Размєтаєва, Національний юридичний університет імені Ярослава Мудрого

кандидатка юридичних наук, Голова Центру права, етики та цифрових технологій,

запрошена дослідниця в Уппсальському Університеті

Посилання

Asenbaum, Hans, and Frederic Hanusch. “(De)futuring Democracy: Labs, Playgrounds, and Ateliers as Democratic Innovations.” Futures 134 (2021): 102836. https://doi.org/10.1016/j. futures.2021.102836.

Birhane, Abeba. “Algorithmic Injustice: A Relational Ethics Approach.” Patterns 2 (2) (2021): 100205. https://doi.org/10.1016/j.patter.2021.100205.

Brandt, Mark J., Chris G. Sibley, and Danny Osborne. “What Is Central to Political Belief System Networks?” Personality and Social Psychology Bulletin 45 (9) (2019): 1352–64. https:// doi.org/10.1177/0146167218824354.

Castillo, Ramon D., Kloos Heidi, Richardson Michael J., and Talia Waltzer. “Beliefs as Self-Sustaining Networks: Drawing Parallels Between Networks of Ecosystems and Adults’ Predictions.” Frontiers in Psychology 6 (2015). https://doi.org/10.3389/fpsyg.2015.01723.

Crocco, Margaret S., Avner Segall, Anne-Lise Halvorsen, Alexandra Stamm, and Rebecca Jacobsen. “It’s Not Like They’re Selling Your Data to Dangerous People: Internet Privacy, Teens, and (Non-) controversial Public Issues.” The Journal of Social Studies Research 44 (2020): 21–33. https:// doi.org/10.1016/j.jssr.2019.09.004.

Engelen, Bart, and Thomas Nys. “Nudging and Autonomy: Analyzing and Alleviating the Worries.” Review of Philosophy and Psychology 11 (2020): 137–56. https://doi.org/10.1007/s13164-019-00450-z. Habermas, Jürgen. The Theory of Communicative Action, Vol. 2: Lifeworld and System: A Critique of Functionalist Reason. Boston: Beacon Press, 1987.

Hildebrandt, Mireille. Law for Computer Scientists and Other Folk. Oxford: Oxford University Press, 2020.

Jongepier, Fleur, and Michael Klenk. “Online Manipulation: Charting the Field.” In The Philosophy of Online Manipulation, edited by Fleur Jongepier and Michael Klenk, 15–48. New York: Routledge, 2022. https://doi.org/10.4324/9781003205425–3.

Kan, Michael. “Sorry, That James Webb Space Telescope ‘Image’ Is Just a Close-Up of a Sausage: French Scientist Étienne Klein Tweeted the Image as a Joke and a Cautionary Tale about Fake News, but It Seems Some People Took Him Seriously.” August 5, 2022. https://uk.pcmag.com/ news/141924/sorry-that-james-webb-space-telescope-image-is-just-a-close-up-of-a-sausage.

Klenk, Michael, and Jeff Hancock. “Autonomy and Online Manipulation.” Internet Policy Review 8 (1) (2019). https://policyreview.info/articles/news/autonomy-and-online-manipulation/1431. König, Pascal D., and Georg Wenzelburger. “Opportunity for Renewal or Disruptive Force? How Artificial Intelligence Alters Democratic Politics.” Government Information Quarterly 37 (3) (2020).

https://doi.org/10.1016/j.giq.2020.101489.

Lau, Theodora. “When AI Becomes a Part of Our Daily Lives.” Technology and Analytics, Harvard Business Review. May 23, 2019. https://hbr.org/2019/05/when-ai-becomes-a-part-of-our-daily-lives. Matthias, Andreas. “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata.” Ethics and Information Technology 6 (2004): 175–83. https://doi.org/10.1007/s10676-004-3422-1.

Pham, Adam, Alan Rubel, and Clinton Castro. “Social Media, Emergent Manipulation, and Political Legitimacy.” In The Philosophy of Online Manipulation, edited by Fleur Jongepier and Michael Klenk, 353–69. New York: Routledge, 2022. https://doi.org/10.4324/9781003205425–21. Susser, Daniel, Beate Roessler, and Helen F. Nissenbaum. “Technology, Autonomy, and Manipulation.” Internet Policy Review 8 (2) (2019). https://doi.org/10.14763/2019.2.1410.

Thaler, Richard H., and Cass R. Sunstein. Nudge: Improving Decisions about Health, Wealth, and Happiness. New Haven: Yale University Press, 2008.

Van Drunen, Max Z., Natali Helberger, and Mariella Bastian. “Know Your Algorithm: What Media

Organizations Need to Explain to Their Users about News Personalization.” International Data Privacy Law 9 (4) (2019): 220–35. https://doi.org/10.1093/idpl/ipz011.

Ware, Alan. “The Concept of Manipulation: Its Relation to Democracy and Power.” British Journal of

Political Science 11 (2) (1981): 163–81. https://doi.org/10.1017/S0007123400002556. White, Mark D. The Manipulation of Choice: Ethics and Libertarian Paternalism. New York: Palgrave Macmillan, 2013.

Whitfield, Gregory. “Two Puzzles for Shared-reason Accounts of Persuasion.” Journal of Political Power 14 (2) (2021): 324–39. https://doi.org/10.1080/2158379X.2021.1901198.

Zarouali, Brahim, Sophie C. Boerman, and Claes H. de Vreese. “Is This Recommended by an Algorithm? The Development and Validation of the Algorithmic Media Content Awareness Scale (AMCA-scale).” Telematics and Informatics 62 (2021): 101607. https://doi.org/10.1016/j.

tele.2021.101607.

##submission.downloads##

Опубліковано

2023-04-23

Номер

Розділ

ЦИФРОВІ ТЕХНОЛОГІЇ, ЛЮДСЬКИЙ ДОСВІД І ПРАВО