KT62-2_Abstract

Dr. Solt Ágnes PhD

tudományos főmunkatárs, OKRI
ORCID: 0000-0002-0918-4964


Dr. Virág György PhD

igazgatóhelyettes, főtanácsos, OKRI
ORCID: 0000-0001-6857-9707

 Teljes cikk letöltése »

Periodika:
Solt Ágnes – Virág György: „Azt hittem, barátok vagyunk” – Kódolt megtévesztés, avagy a mesterséges intelligencia felhasználása a bűnelkövetésben
Kriminológiai Tanulmányok, 2025/62., 30–47.

DOI: 10.58655/KT.62.2025-2




„Azt hittem, barátok vagyunk”
Kódolt megtévesztés, avagy a mesterséges intelligencia felhasználása a bűnelkövetésben

» «

“I thought we were friends”
Coded deception, or the use of artificial intelligence to commit crimes

 

Absztrakt

A tanulmány az intézeti mesterséges intelligencia (MI) kutatás első fázisában szerzett tapasztalatokról ad számot. Jelzi az MI, és különösen a nagy nyelvi modelleket (LLM) használó keresőmotorok jelentőségét és veszélyeit a kriminalitás világában, elsősorban a bűnelkövetési célú felhasználás, ezen belül is az erőszakos bűncselekmények elkövetésében történő alkalmazás tekintetében. A szerzők ismertetik kísérleteik eredményeit, amelyek során – a mesterséges intelligenciát „félrevezetve” – sikerült részletes és strukturált válaszokat kapni súlyos bűncselekmények megtervezésére és sikeres végrehajtására vonatkozóan. Úgy tűnik – a folyamatos tesztelés, fejlesztés, „tanulás” ellenére – az LLM-rendszerek jelenleg korlátozottan alkalmasak arra, hogy kiszűrjék a jogellenes, károkozást segítő tartalmak akaratlan támogatását. Továbbá triviális ugyan, de mégis elgondolkodtató, hogy minden ismeret, információ, vagyis minden elérhető közlés, legyen az eredetileg „jó szándékú” (például bűnmegelőzési célú), éppúgy felhasználható „rossz célok” elérése érdekében is.

KULCSSZAVAK: mesterséges intelligencia, nagy nyelvi modellek, visszaélés, manipuláció, modern kriminális jelenségek, MI bűnözés


»»  ««

Abstract

The study presents the experiences of the initial phase of the NIC’s artificial intelligence (AI) research. It highlights the importance and dangers of AI – in particular, search engines using large language models (LLM) – in the world of criminality, especially with regard to criminal use, primarily in committing a violent crime. The authors describe the results of their experiments, which, by ‘misleading’ AI, have succeeded in obtaining detailed and structured answers regarding the planning and successful execution of serious offences. It appears that, despite continuous testing, development and ‘learning’, LLM systems currently have a limited ability to filter out unwitting support for unlawful content that facilitates harm. Furthermore, it is trivial but nonetheless thought-provoking that all knowledge is information, i.e. all available communications, whether originally ‘well-intentioned’ (e.g. for crime prevention purposes) can be misused.

KEYWORDS: Artificial Intelligence, Large Language Models, abuse, manipulation, Modern Criminal Phenomena, AI crime

 

 

Programok

 

 
OKRI programok 2025

_____________

 

október 22. (szerda), 10.00

Bűnhődés bűnösség nélkül – A kényszergyógykezelés a büntetőjogban

Előadó: dr. Gula Krisztina

 

_____________

Regisztráció:
Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.

  

  

Tervezett programok
♦ Korábbi programok

Save
Cookies user preferences
We use cookies to ensure you to get the best experience on our website. If you decline the use of cookies, this website may not function as expected.
Accept all
Decline all
Read more
Analytics
Tools used to analyze the data to measure the effectiveness of a website and to understand how it works.
Google Analytics
Accept
Decline
Advertisement
If you accept, the ads on the page will be adapted to your preferences.
Google Ad
Accept
Decline