Azərbaycanda yeni cərimələr: uşaq hüquqları, dilənçilik və süni intellekt qanunları nəyi dəyişəcək?
Azərbaycanda yeni cərimələr
Azərbaycanda üç fərqli mövzu – uşaqların müdafiəsi ilə bağlı yeni qanun, dilənçiliklə bağlı cərimələrin sərtləşdirilməsi və süni intellektin (xüsusən “deepfake” texnologiyalarının) yaratdığı risklərin tənzimlənməsi qanunvericilik gündəminə çıxıb.
Bu üç mövzu ortaq bir sual yaradır: dövlət artan sosial və rəqəmsal dəyişikliklər fonunda problemi yalnız cərimə və cəza ilə idarə edəcək, yoxsa paralel sosial xidmətlər və hüquqi təminatlarla?
Əgər baş verən dəyişikliklərlə bağlı “indi niyə?” sualını versək, cavabı beynəlxalq görünürlük məsələsidir.
Digər cavab isə daxili gündəmlə bağlıdır: beynəlxalq təşkilatların illik hesabatlarında Azərbaycanla bağlı media və vətəndaş cəmiyyəti mühiti, nəzarət və sanksiya mexanizmləri tez-tez tənqid hədəfi olur. Bu kontekstdə yeni qayda və cərimə paketləri həm “təhlükəsizlik” və “ictimai asayiş” arqumenti ilə əsaslandırılır, həm də “sui-istifadə riski” barədə suallar doğurur.
Regional müqayisə də vacibdir. Gürcüstan 2019-cu ildə parlament səviyyəsində “Uşaq Hüquqları Məcəlləsi”ni qəbul edib və UNICEF bunu əsaslı addım kimi qiymətləndirib. Ermənistanda isə “Uşağın hüquqları haqqında” qanun hələ 1996-cı ildən mövcuddur və son illərdə uşaq müdafiə sisteminin yenilənməsi müzakirə olunur.
Yəni regionda “uşaq hüquqları” mövzusu yeni deyil, amma Azərbaycan yeni mətnlə daha müasir (o cümlədən onlayn) riskləri ayrıca hüquqi dilə çevirməyə çalışır.
Dilənçilik: cərimə yoxsulluğu azaldır, yoxsa “cinayətə” çevirir?
Azərbaycan gündəmində “dilənçilik” məsələsi adətən iki fərqli problemin qarışığı kimi çıxış edir. Bir tərəfdən yoxsulluq və sosial həssaslıq, digər tərəfdən isə istismar (xüsusən uşaqların və əlilliyi olan şəxslərin dilənçiliyə cəlb edilməsi).
Uşaq hüquqları üzrə yeni qanun layihəsinin mətnində “yardıma ehtiyacı olan uşaq” barədə məlumatı olan şəxslərin bunu dövlət qurumlarına bildirmə borcu xüsusi yer alır. Zorakılıq və istismar əlamətlərinin aşkarlanması zamanı da aidiyyəti qurumlara məlumat verilməsi öhdəliyi yaranmış olur. Bu yanaşma faktiki olaraq “küçədə dilənçiliyə məcbur edilən uşaq” tapıldığı hallarda sosial yardım və müdafiə üçün hüquqi əsas yarada bilər (ən azı konseptual olaraq).
Amma praktikada cərimə mexanizmləri önə çıxanda risk dəyişir. Cərimə, xüsusilə “sadəcə yaşamaq üçün” pul istəyən insanlara tətbiq olunarsa, yoxsulluğu azaltmaq yerinə, yoxsulluğu daha da artıra bilər.
Avropa təcrübəsi burada iki mesaj verir:
- Bir çox ölkə və şəhər “aqressiv dilənçilik”, insanları təqib etmə, ictimai təhlükəsizliklə bağlı halları ayrıca tənzimləyir.
- Avropa İnsan Hüquqları Məhkəməsi (AİHM) 2021-ci ildə “Lakatuş İsveçrəyə qarşı” işində ictimai yerlərdə dilənçiliyə ümumi qadağanın (və buna görə cərimə tətbiqinin) həssas vəziyyətdə olan şəxsə qarşı qeyri-mütənasib ola biləcəyini vurğulayıb və Avropa Konvensiyasının 8-ci maddəsi kontekstində pozuntu təsbit edilib.
AİHM-in həmin işdə apardığı müqayisəli təhlil də göstərir ki, Avropada vahid model yoxdur. Bəzi ölkələr daha sərt, bəziləri daha sosial yönlü yol seçir.
Buna görə Azərbaycan üçün əsas sual cərimənin olub-olmaması yox, onun hədəfinin kim olmasıdır. Əgər hədəf dilənçiliyi təşkil edən, insanları (xüsusən uşaqları) istismar edən şəbəkələrdirsə, cəza aləti daha spesifik əsaslandırıla bilər. Əgər hədəf küçədə sosial müdafiə sistemindən kənarda qalan, alternativi olmayan insanlar olarsa, bu, sosial problemin polis vasitəsi ilə “həll edilməsi” kimi görünəcək.
Bu mövzuda “cərimə və sosial xidmət” ikilisinə qayıtmaq vacibdir. Uşaq hüquqları üzrə yeni mətn məhz “məlumatlandırma, yerli komissiyalar, qaynar xətt” kimi mexanizmlərə vurğu edir. Bu mexanizmlər gerçəkdə işləməsə, cərimənin qeyri-işlək olmaq ehtimalı artacaq.
Süni intellekt: “deepfake” riskləri, şəxsi məlumatlar və media azadlığı
Süni intellekt müzakirəsi Azərbaycanda artıq təkcə “innovasiya” söhbəti deyil, informasiya təhlükəsizliyi və şəxsi təhlükəsizlik məsələsidir. Milli Məclisdə deputat Azay Quliyev “rəqəmsal klonlaşdırma” və “deepfake” texnologiyaları ilə bağlı ayrıca qanunvericilik boşluğu olduğunu deyib. Onun fikrincə, mövcud mexanizmlər bu riskləri effektiv qarşılamır.
“Deepfake” texniki baxımdan sadə dildə belə izah olunur: süni intellekt kimin isə üzünü, səsini və ya davranışını imitasiya edib, real görünən saxta video və ya audio yaradır.
Nəticə üç istiqamətdə zərər verə bilər:
- Şəxsi reputasiya və şantaj (xüsusən qadınlara qarşı saxta intim görüntülər).
- Fırıldaqçılıq (məsələn, səs klonu ilə pul tələb etmək).
- İctimai-siyasi manipulyasiya (rəsmi şəxslərin, tanınmışların adına saxta çıxışlar).
Bu risklərin parlamentdə səslənməsi göstərir ki, mövzu artıq dövlətin təhlükəsizlik gündəminə daxil olub.
Hökumət mövqeyinin daha “texniki” tərəfi də var. Xüsusi Rabitə və İnformasiya Təhlükəsizliyi Dövlət Xidmətinin rəis müavini Tural Məmmədov bildirib ki, Azərbaycanda süni intellektin (Sİ) təhlükəsizlik tələblərini müəyyən edən sənəd üzərində iş gedir və Sİ sistemlərində hansı məlumatların necə emal olunmasına görə, onların “bulud mühiti”nə ötürülüb-ötürülməməsi barədə qərar veriləcək.
O, eyni zamanda bu məqsədlə yüksək hesablama resursları olan iki mərkəzin yaradıldığını qeyd edib. Bu yanaşma dövlətin prioritetini açıq göstərir: məlumatların təsnifatı, dövlət datasının qorunması, infrastruktur nəzarəti.
Bu müzakirəni beynəlxalq kontekstdə iki model ilə müqayisə etmək mümkündür:
- Avropa İttifaqı modeli: vahid qayda və şəffaflıq tələbi. Avropa İttifaqının “AI Act (Regulation (EU) 2024/1689)” sənədi Sİ-ni riskə görə tənzimləyir və mərhələli tətbiq olunur. Avropa Komissiyasının rəsmi təqviminə görə, “AI Act”-ın “şəffaflıq tələbləri” (məsələn, “deepfake” üzrə açıqlama və ya etiketləmə kimi mexanizmlər) 2 avqust 2026-dan tətbiq edilməyə başlayacaq. Burada ideya texnologiyanı qadağan etməkdən çox, insanın aldadılmasının qarşısını almaq üçün “bu kontent süni yaradılıb” kimi şəffaflıq qaydasını normaya çevirməkdir.
- ABŞ modeli: hissəli tənzimləmə, konkret zərərə fokus. ABŞ-də vahid “Sİ qanunu”ndan çox, müxtəlif alətlər var: risk idarəetməsi üçün NIST-in könüllü çərçivələri (AI RMF 1.0 kimi), eləcə də konkret zərər növlərinə qarşı yeni qanunlar.
Məsələn, ABŞ-də 2025-ci ildə federal “Take It Down Act” qəbul edilib. Bu qanun razılıqsız intim görüntülərin (o cümlədən Sİ ilə yaradılan “intim deepfake”lərin) yayılmasını hədəfləyir və platformalara qısa müddətdə silmə öhdəliyi qoyur. Ancaq bu qanun da tənqid olunur. ABŞ-də bu qanunun ifadə azadlığına təsiri və “takedown” mexanizminin sui-istifadə edilərək yanlış tətbiq olunması ehtimalı ilə bağlı narahatlıqlar da səslənir.
Azərbaycanda isə risk ondan ibarətdir ki, “informasiya təhlükəsizliyi” çərçivəsi bəzən media və vətəndaş cəmiyyəti üzərində əlavə nəzarət alətinə çevrilə bilər. “Deepfake” təhlükəsi real olsa da, onu tənzimləyən qanunun dili və tətbiqi jurnalistlərin, araşdırmaçıların və tənqidçilərin üzərinə “saxta xəbər”, “manipulyasiya” kimi geniş şərhlərlə gəlməməlidir.
Uşaq zorakılığı: yeni Qanun nəyi dəyişir?
Milli Məclisin rəsmi qanun layihəsi mətninə görə, “uşaqlara qarşı zorakılıq” anlayışı geniş təriflə verilir: uşağın həyatına, sağlamlığına, cinsi toxunulmazlığına, şərəf və ləyaqətinə təhlükə yaradan, fiziki və ya psixoloji əzab verən (və ya verə biləcək) hərəkət və ya hərəkətsizlik kimi.
Ən vacib yeni vurğu isə zorakılığın “internet informasiya ehtiyatlarından və ya informasiya-telekommunikasiya şəbəkələrindən istifadə etməklə” də törədilə bilməsidir. Yəni zorakılıq, artıq yalnız “evin içində” və ya “məktəbdə” baş verən fiziki hadisə kimi yox, onlayn təhqir, təqib və digər rəqəmsal təzyiq formaları kimi də hüquqi mətndə görünür.
Layihədə ikinci böyük yenilik məcburi xəbərvermə (məcburi hesabat) fəlsəfəsidir. Mətndə valideynlərin və uşaqlara nəzarət funksiyası daşıyan təhsil, tibb, sosial xidmət və digər müəssisələrin işçilərinin zorakılıq əlamətlərini gördükdə konfidensiallığa əməl etməklə aidiyyəti qurumlara məlumat vermə borcu göstərilir. Eyni maddədə “uşaq qaynar xətti” xidmətinə müraciət imkanı da qeyd edilir.
Bundan əlavə, “yardıma ehtiyacı olan uşaq” barədə məlumatı olan fiziki və hüquqi şəxslərin də məlumat vermə öhdəliyi ayrıca vurğulanır.
Mediada bu layihənin məqsədi “uşaq hüquqlarının təmin edilməsi üzrə vahid dövlət siyasətinin formalaşdırılması” kimi təqdim olunur. Qanun mətnində erkən nikah kimi anlayışlar da ayrıca izah edilir və bu davranışlara görə məsuliyyət məsələsi xatırladılır.
UNICEF-in uşaq müdafiəsinə yanaşması burada yaxşı “yoxlama siyahısı” verir. UNICEF-in strategiya sənədlərində uşaq müdafiəsi istismar, zorakılıq, laqeydlik və zərərli praktikaların qarşısının alınması və cavab tədbirləri kimi izah olunur və bu yanaşmanın Uşaq Hüquqları Konvensiyasına bağlı olduğu qeyd edilir.
UNICEF eyni zamanda “sistem gücləndirilməsi” ideyasını önə çəkir: qanunla yanaşı, koordinasiya, xidmətlər, kadr hazırlığı və işlək mexanizmlər lazımdır. Məcburi xəbərvermə də məhz burada sınanacaq. Əgər polisə və ya komissiyaya məlumat veriləndə uşağın təhlükəsiz məkana yerləşdirilməsi, psixoloji dəstəyi, ailə ilə işləmə, reabilitasiya kimi xidmətlər yoxdursa, mexanizm kağız üzərində qala bilər.
Burada incə bir tarazlıq da mövcuddur. Cəmiyyətin bir hissəsi üçün “ailə dəyərləri” uşağın hüquqlarına dair müdaxilənin sərhədini dar görür. Digər hissə isə uşağın hüquqlarını “müasir insan hüquqları” çərçivəsində daha sərt qorumağın tərəfdarıdır. Qanun mətnində konfidensiallıq və uşağın zorakılıqdan müdafiə hüququ kimi anlayışların birlikdə göstərilməsi bu tarazlığı qurmaq cəhdi kimi oxuna bilər.
Müsbət tərəf ondan ibarətdir ki, Azərbaycan uşaqlara qarşı zorakılığın formalarını hüquqi mətndə daha geniş görür və internet üzərindən törədilən zorakılıq ehtimalını ayrıca qeyd edir. Bu, onlayn təhqir və təqibin “ciddi məsələ” kimi qəbul edildiyi mesajını verir.
Məcburi xəbərvermə ideyası da kağız üzərində erkən müdaxilə imkanını artırır. Müəllim və ya həkim şübhələnirsə, “mən qarışmıram” demək daha çətin olur. Eyni zamanda süni intellekt və məlumatların emalı üzrə təhlükəsizlik tələblərinin hazırlanması dövlətin rəqəmsal transformasiyanı nəzarətsiz buraxmaq istəmədiyini göstərir.
Azərbaycanda yeni cərimələr