Жасанды интеллект туралы заң жүйелердің жіктелуі мен қауіпсіздік шараларын белгілейді

Заң жасанды интеллект жүйелерін үш критерий бойынша жіктеуді көздейді.
Біріншіден, тәуекел деңгейі бойынша. Жүйелер минималды тәуекел деңгейіндегі, олардың жұмысындағы бұзушылықтар елеусіз әсер ететін; орташа тәуекел деңгейіндегі, бұзушылықтары тиімділіктің төмендеуіне және зиян келтіруге әкелуі мүмкін; және жоғары тәуекел деңгейіндегі, жұмысының бұзылуы әлеуметтік немесе техногендік сипаттағы төтенше жағдай туындатуы, қорғаныс пен қауіпсіздікке, азаматтардың өмір сүруіне әсер етуі мүмкін жүйелер болып бөлінеді.
Екіншіден, автономдылық деңгейі бойынша. Жүйелер төмен автономдылықтағы – шешімдері ұсынымдық сипатта болып, соңғы шешімді адам қабылдайтын; орташа автономдылықтағы – шешімдерді адам тарапынан түзетуге мүмкіндік бар; және жоғары автономдылықтағы – адам араласуы немесе шешімді өзгертуі мүмкін емес немесе техникалық тұрғыдан жүзеге аспайтын жүйелер болып айқындалады.
Үшіншіден, пайдалану режимі бойынша. Жүйелер ашық жүйелер болып – оларды еркін пайдалануға және өзгертуге болады; жабық жүйелер – олардың архитектурасына қол жеткізу меншік иесімен шектеледі; және жергілікті жүйелер – жалпы пайдалану желілеріне қосылмай, меншік иесінің инфрақұрылымы шеңберінде жұмыс істейтін жүйелер болып бөлінеді.
Заң манипулятивтік, дискриминациялық немесе қауіпті функцияларға ие, соның ішінде әлеуметтік скоринг, жасырын ықпал ету немесе жеке деректерді келісімсіз жинау сияқты ИИ жүйелерін жасауға және қолдануға тыйым салады.
Технологияларға деген сенімді арттыру үшін мемлекеттік органдар жоғары тәуекел деңгейіндегі сенімді жүйелер тізімін қалыптастырады. Оларға енгізу тек ақпараттық жүйелерге аудит жүргізу қағидаларына сәйкес жүргізілген аудиттен өткеннен кейін ғана мүмкін болады.