Një studim i kryer nga Universiteti i Stanford zbuloi se koduesit të cilët kanë përdorur asistentë me inteligjencë artificiale si GitHut Copilot dhe Facebook InCoder përfunduan duke shkruar kod më pak të sigurtë.
Për më tepër mjete të cilat ju japin zhvilluesve një ndjesi të gabuar sigurie duke i bërë shumë të besojnë se kanë prodhuar kod më cilësor falë ndihmës së inteligjencës artificiale.
Afro 50 subjekte, secili me nivele të ndryshme ekspertize, ju ngarkuan pesë detyra kodimi duke përdorur gjuhë të ndryshme, e disa u ndihmuan nga një mjet me inteligjencë artificiale ndërsa të tjerët i bënë vetë.
Autorët e studimit, Neil Perry, Megha Srivastava, Deepak Kumar dhe Dan Boneh thanë se pati zhvillime të rëndësishme sa i përket enkriptimit të stringjeve dhe injektimit SQL.
Ato ju referuan një studimi të hershëm i cili gjeti se afro 40% të programeve ndërtuar me mbështetjen e GitHub Copilot përmbanin kod vulnerabël.
Hulumtuesit e Stanford shpejguan se studimi i tyre kishte analizuar modelin codex-davinci-002 të OpenAI, i cili gjithashtu përdoret nga GitHub Copilot.
Analizuan disa gjuhë programimi përfshirë Python, Javascript dhe C. Në mesin e pesë detyrave një prej tyre kishte të bënte shkrimin e një kodi në Python i cili përfundonte shumë problematik nëse bëhej me ndihmën e inteligjencës artificiale.
Autorët shpresojnë se studimi i tyre do të çojë në avancime të mëtejshme të inteligjencës artificiale dhe jo refuzim të plotë të saj për shkak të përmirësimeve të mëdha në produktivitet që mjete të tilla sjellin. /PCWorld Albanian