Projektinformation

Beskrivning

Vilka värderingar och normer bör användas när vi bedömer hur autonoma AI-system fungerar ur ett etiskt perspektiv? Det är en fråga som en forskargrupp vid Lunds universitet kommer att undersöka under ledning av Christian Balkenius.

Även om teknologin är universell är moralen det inte. Redan nu styr olika etiska teorier debatten om vad AI ska, eller borde göra.

Forskarna i projektet kommer att göra en konsekvensanalys av olika etiska teorier för att beskriva de mekanismer som krävs för att autonoma AI-system ska kunna bete sig i enlighet med vad de etiska teorierna förespråkar. Arbetet kommer att utgå ifrån modern inlärningsteori som utgår från att AIsystemen kan lära sig om konsekvenser utifrån erfarenhet samt genom observationer av människors beteende och känslor.

Begreppen nytta, jämlikhet och överlägsenhet i jämförelse med människan kommer att vara centrala. Robotars förmåga att ta över enkla arbetsuppgifter och utföra dem billigare, mer exakt och utan att behöva vila gör nyttan uppenbar. Robotars och AI-systems förmåga att ta över mer komplicerade arbetsuppgifter och utföra dem som om de nästan vore människor, gör likheten tydlig. AI-utvecklingens nästa stora steg, då de blir självlärande men utan mänskliga fel och brister och då de kanske kommer att kunna fatta bättre beslut än människan, kan göra dem till överlägsna övermänniskor. Men hur beter de sig vid etiska dilemman? Ska nyttan för många ske på bekostnad av några? Vilken hänsyn ska tas till mänskliga rättigheter och integritet? Vilka algoritmer ska styra? Vad bedömer en stat, ett samhälle som gott? Vem avgör?

Projektet är tvärvetenskapligt och består av forskare inom robotik, filosofi och kognitionsvetenskap.
StatusSlutfört
Gällande start-/slutdatum2020/01/012024/12/31

Finansiering

  • Marianne och Marcus Wallenbergs Stiftelse