Deallusrwydd artiffisial mewn gwasanaethau cyhoeddus

Wedi ei gyhoeddi: 1 Medi 2022

Diweddarwyd diwethaf: 1 Medi 2022

I ba wledydd mae hyn yn berthnasol?

  • Lloegr
  • Alban
  • Cymru

Ar gyfer pwy mae'r canllaw hwn

Mae’r canllaw hwn ar gyfer unrhyw un mewn corff cyhoeddus yng Nghymru, Lloegr neu’r Alban sydd yn:

  • caffael, comisiynu, adeiladu neu addasu deallusrwydd artiffisial (AI) ar gyfer eu gweithle neu'r gwasanaethau a ddarperir ganddynt
  • gyfrifol am wneud penderfyniadau ynghylch a ddylid cyflwyno AI a sut
  • gyfrifol am ddefnyddio deallusrwydd artiffisial, neu am oruchwylio neu graffu ar unrhyw wasanaeth sy'n defnyddio AI
  • gyfrifol am hyfforddi staff sy'n defnyddio AI

Bydd hefyd yn ddefnyddiol i:

  • unrhyw un sy’n gyfrifol am ddatblygu neu ddefnyddio AI fel rhan o wasanaeth y maent yn ei ddarparu ar ran corff cyhoeddus

Beth mae'r canllaw hwn yn ei gwmpasu

Mae’r canllaw hwn yn darparu:

  • trosolwg o beth yw deallusrwydd artiffisial
  • canllawiau ar sut mae Dyletswydd Cydraddoldeb y Sector Cyhoeddus yn berthnasol pan fydd corff cyhoeddus yn defnyddio deallusrwydd artiffisial
  • rhestr wirio ar gyfer cyrff cyhoeddus yn Lloegr (a chyrff cyhoeddus heb eu datganoli a chyrff cyhoeddus trawsffiniol

Nid yw’n ymdrin â sut y gall defnydd amhriodol o AI arwain at dorri cyfreithiau eraill, megis Deddf Diogelu Data 2018 a Deddf Hawliau Dynol 1998.

Beth yw deallusrwydd artiffisial

Mae deallusrwydd artiffisial, dysgu peirianyddol a gwneud penderfyniadau awtomataidd yn dermau sy’n cyfeirio at ystod eang o dechnolegau a ddefnyddir ar draws y sectorau preifat a chyhoeddus. Yn y canllaw hwn, rydym yn cyfeirio at y dechnoleg hon fel deallusrwydd artiffisial (AI).

AI yw’r wyddoniaeth a’r arfer o ddefnyddio cyfrifiaduron i gefnogi gwneud penderfyniadau neu ddarparu gwasanaethau a gwybodaeth. Mae'n golygu rhaglennu cyfrifiaduron i ddidoli symiau mawr o ddata a dysgu ateb cwestiynau neu ddelio â phroblemau. Er enghraifft, yn y sector cyhoeddus gallai hyn gynnwys defnyddio rhaglenni i helpu i ddyrannu buddion neu i amcangyfrif y risg y bydd unigolyn yn cyflawni twyll.

Mae meddalwedd adnabod wynebau yn enghraifft o ddefnyddio AI. Mae'n golygu gwirio wynebau pobl am ddelweddau sy'n bodoli eisoes sydd eisoes yn cael eu cadw ar gronfa ddata. Gellir ei gysylltu â rhwydwaith o gamerâu a chaiff ei ddefnyddio gan yr heddlu mewn rhai ardaloedd â lefelau troseddu uchel ac ar groesfannau ffin i wirio hunaniaeth teithwyr.

Mae deallusrwydd artiffisial a thechnolegau digidol newydd yn trawsnewid sut mae gwasanaethau cyhoeddus yn cael eu darparu. Mae ganddynt y potensial i wella cydraddoldeb, ond gallant hefyd arwain at wahaniaethu.

Os na fydd cyrff cyhoeddus yn cymryd camau i warchod rhag hyn, gallant wynebu niwed i enw da a chamau cyfreithiol am dorri Deddf Cydraddoldeb 2010 , gan gynnwys Dyletswydd Cydraddoldeb y Sector Cyhoeddus (PSED).

Manteision deallusrwydd artiffisial

Trwy gyfuno setiau data lluosog, gall AI alluogi gwneud penderfyniadau mwy gwybodus, tra'n lleihau'r tebygolrwydd o gamgymeriadau dynol. Er enghraifft, mae system AI yn debygol o wneud penderfyniadau mwy cyson yn seiliedig ar yr un wybodaeth nag y bydd pobl yn ei wneud. Gall awtomeiddio penderfyniadau helpu i leihau costau staff ac nid yw wedi'i gyfyngu gan gyfyngiadau oriau gwaith arferol. Gall AI helpu i dargedu gwasanaethau yn fwy effeithlon a chyflym.

Risgiau deallusrwydd artiffisial

Gall systemau AI arwain at wahaniaethu a dyfnhau anghydraddoldebau. Gall gwahaniaethu ddigwydd oherwydd bod y data a ddefnyddir i helpu’r AI i wneud penderfyniadau eisoes yn cynnwys tuedd. Gall rhagfarn ddigwydd hefyd wrth i'r system gael ei datblygu a'i rhaglennu i ddefnyddio data a gwneud penderfyniadau. Cyfeirir yn aml at y broses hon fel 'hyfforddi' yr AI. Gall y rhagfarn ddeillio o'r penderfyniadau a wneir gan y bobl sy'n hyfforddi'r AI. Weithiau gall y gogwydd ddatblygu a chronni dros amser wrth i'r system gael ei defnyddio.

Enghraifft: mae heddlu yn arestio pobl iau a phobl Ddu yn fwy nag eraill. Mae'r rhan fwyaf o'r bobl hyn yn cael eu rhyddhau heb gyhuddiad ond mae eu delweddau wyneb yn cael eu cadw a'u defnyddio i hyfforddi technoleg adnabod wynebau'r heddlu, a ddefnyddir i hysbysu tactegau'r heddlu megis ble mae swyddogion heddlu'n cael eu defnyddio. Mae'r heddlu'n sylweddoli bod y dechnoleg adnabod wynebau yn dylanwadu ar bwy y mae'n eu harestio ac y gallai fod yn atgyfnerthu'r duedd bresennol. Mae hyn yn digwydd oherwydd bod yr AI yn cael ei hyfforddi gan ddefnyddio data cyfyngedig iawn. Mae'r heddlu yn atal ei ddefnydd o dechnoleg adnabod wynebau tra'n aros am adolygiad o'r opsiynau i ail-hyfforddi'r system gan ddefnyddio data newydd sy'n rhydd o ragfarn. Mae hefyd yn monitro sut mae'r system newydd yn gweithio i wneud yn siŵr nad yw'n arwain at ganlyniadau gwahaniaethol.

Gall AI fod yn gymhleth. Pan fydd cyrff cyhoeddus yn prynu systemau mae risg na fydd eu staff yn deall sut mae'n gweithio neu'n gwneud penderfyniadau. Lle mae hyn yn wir, gall fod yn anodd sicrhau bod yr AI yn gweithio yn ôl y bwriad ac yn gwneud penderfyniadau teg.

Adnoddau Llywodraeth y DU ar ddeallusrwydd artiffisial

Ochr yn ochr â’r canllaw hwn, gall canllawiau a safonau eraill eich cefnogi i ddefnyddio deallusrwydd artiffisial a thechnolegau eraill sy’n cael eu gyrru gan ddata mewn modd teg a chyfrifol. Mae hyn yn cynnwys y Fframwaith Moeseg Data’r Swyddfa Ddigidol a Data Ganolog. Mae'n canolbwyntio ar egwyddorion tryloywder, atebolrwydd a thegwch. Mae’r camau gweithredu o dan yr egwyddor tegwch yn arbennig o berthnasol gan eu bod wedi’u cynllunio i ddileu potensial prosiect i gael effeithiau gwahaniaethol anfwriadol

Diweddariadau tudalennau