Newyddion

Corff gwarchod cydraddoldeb yn cymryd camau i fynd i'r afael â gwahaniaethu wrth ddefnyddio deallusrwydd artiffisial

Wedi ei gyhoeddi: 1 Medi 2022

Bydd y defnydd o ddeallusrwydd artiffisial (AI) gan gyrff cyhoeddus yn cael ei fonitro gan reoleiddiwr cydraddoldeb Prydain i sicrhau nad yw technolegau yn gwahaniaethu yn erbyn pobl.

Mae tystiolaeth yn dod i'r amlwg y gall rhagfarn sy'n rhan o algorithmau arwain at drin pobl â nodweddion gwarchodedig fel hil a rhyw yn llai ffafriol.

Mae'r Comisiwn Cydraddoldeb a Hawliau Dynol (CCHD) wedi gwneud mynd i'r afael â gwahaniaethu mewn AI yn elfen bwysig o'i strategaeth tair blynedd newydd .

Heddiw mae’n cyhoeddi canllawiau newydd i helpu sefydliadau i osgoi achosion o dorri cyfraith cydraddoldeb, gan gynnwys dyletswydd cydraddoldeb y sector cyhoeddus (PSED). Mae’r canllawiau’n rhoi enghreifftiau ymarferol o sut y gall systemau AI fod yn achosi canlyniadau gwahaniaethol.

O fis Hydref ymlaen, bydd y Comisiwn yn gweithio gyda thrawstoriad o tua 30 o awdurdodau lleol i ddeall sut y maent yn defnyddio AI i ddarparu gwasanaethau hanfodol, megis taliadau budd-daliadau, ynghanol pryderon bod systemau awtomataidd yn tynnu sylw amhriodol at deuluoedd penodol fel risg o dwyll.

Mae’r CCHD hefyd yn archwilio’r ffordd orau o ddefnyddio ei bwerau i archwilio sut mae sefydliadau’n defnyddio technoleg adnabod wynebau, yn dilyn pryderon y gallai’r feddalwedd fod yn effeithio’n anghymesur ar bobl o leiafrifoedd ethnig.

Bydd yr ymyriadau hyn yn gwella sut mae sefydliadau’n defnyddio AI ac yn annog cyrff cyhoeddus i gymryd camau i fynd i’r afael ag unrhyw effeithiau negyddol ar gydraddoldeb a hawliau dynol.

Dywedodd Marcial Boo, Prif Weithredwr y CCHD:

Er bod technoleg yn aml yn rym er daioni, mae tystiolaeth y gall rhywfaint o arloesi, megis y defnydd o ddeallusrwydd artiffisial, barhau â thuedd a gwahaniaethu os caiff ei weithredu'n wael.

Efallai na fydd llawer o sefydliadau yn gwybod y gallent fod yn torri cyfraith cydraddoldeb, ac efallai na fydd pobl yn gwybod sut y defnyddir AI i wneud penderfyniadau amdanynt.

Mae'n hanfodol i sefydliadau ddeall y rhagfarnau posibl hyn a mynd i'r afael ag unrhyw effeithiau ar gydraddoldeb a hawliau dynol.

Fel rhan o hyn, rydym yn monitro sut mae cyrff cyhoeddus yn defnyddio technoleg i wneud yn siŵr eu bod yn cyflawni eu cyfrifoldebau cyfreithiol, yn unol â’n canllawiau a gyhoeddwyd heddiw. Mae’r CCHD wedi ymrwymo i weithio gyda phartneriaid ar draws sectorau i wneud yn siŵr bod technoleg o fudd i bawb, waeth beth fo’u cefndir.

Bydd y prosiectau monitro yn para sawl mis a byddant yn adrodd ar y canfyddiadau cychwynnol yn gynnar y flwyddyn nesaf.

Mae’r canllaw Deallusrwydd Artiffisial mewn gwasanaethau cyhoeddus yn cynghori sefydliadau i ystyried sut mae’r PSED yn berthnasol i brosesau awtomataidd, i fod yn dryloyw ynghylch sut y defnyddir y dechnoleg ac i adolygu systemau’n gyson.

Yn y sector preifat, mae'r CCHD ar hyn o bryd yn cefnogi gyrrwr tacsi mewn hawliad gwahaniaethu ar sail hil ynghylch defnydd Uber o dechnoleg adnabod wynebau at ddibenion adnabod.

Siaradwch â'n swyddfa wasg

Os ydych yn gweithio yn y cyfryngau, siaradwch â’n swyddfa wasg:

  • Yn ystod oriau swyddfa (dydd Llun i ddydd Gwener, 9am i 5pm) cysylltwch â: 0161 829 8102
  • Neu anfonwch e-bost at dîm swyddfa'r wasg
  • Ar gyfer y tu allan i oriau, parhewch i gysylltu â 0161 829 8102. Nid yw e-byst yn cael eu monitro y tu allan i oriau arferol.

Mae'r rhif ffôn hwn ar gyfer ymholiadau'r cyfryngau yn unig. Ar gyfer pob ymholiad arall, ffoniwch 0161 829 8100, neu e-bostiwch correspondence@equalityhumanrights.com