owned this note
owned this note
Published
Linked with GitHub
# Asilomar AI Alapelvek
**A [futureoflife.org](https://futureoflife.org/ai-principles) oldalon publikált angol szöveg alapján.**
## AI kutatások fontos pontjai
### 1. Kutatási cél
- AI kutatásoknak hasznosaknak kell lenni
### 2. Kutatás-finanszírozás
- AI befektetésekkel egyidőben olyan égető kutatási területeket is támogatni kell, mint számítástechnika, gazdaság, szabályozás, etika, és társadalomkutatás
### 3. Tudomány-politikai kapcsolat:
- AI kutatók és törvényhozók közti egészséges konstruktív kapcsolat
### 4. Kutatási kultúra
- AI kutatókat és fejlesztőket együttműködésre, bizalomra, és az átláthatóság kultúrájára ösztönözni.
### 5. Versengés mellőzése
- AI rendszerek fejlesztőinek aktívan együtt kell működniük a biztonsági előírások sértetlensége végett.
## AI Etika és értékek
### 6. Biztonság
- Minden AI rendszer biztosan és biztonságosan kell működjön és ellenőrizhető ahol csak lehetséges.
### 7. Hiba átláthatóság
- Amennyiben az AI rendszer ártalmassá válik, annak oka megállapíthatónak kell lennie.
### 8. Bírósági átláthatóság
- Minden önálló rendszerek általi beavatkozás a bírósági döntéshozatalba ellenőrizhetőnek kell legyen kompetens személyek által.
### 9. Felelősség
- AI rendszerek tervezői és fejlesztői érintettek a használatukból, visszaélésekből és egyéb tevékenységekből adódó erkölcsi következmények ügyében, felelősségteljesen és lehetőség a következmények formálására.
---
10) Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.
11) Human Values: AI systems should be designed and operated so as to be compatible with ideals of human dignity, rights, freedoms, and cultural diversity.
12) Personal Privacy: People should have the right to access, manage and control the data they generate, given AI systems’ power to analyze and utilize that data.
13) Liberty and Privacy: The application of AI to personal data must not unreasonably curtail people’s real or perceived liberty.
14) Shared Benefit: AI technologies should benefit and empower as many people as possible.
15) Shared Prosperity: The economic prosperity created by AI should be shared broadly, to benefit all of humanity.
16) Human Control: Humans should choose how and whether to delegate decisions to AI systems, to accomplish human-chosen objectives.
17) Non-subversion: The power conferred by control of highly advanced AI systems should respect and improve, rather than subvert, the social and civic processes on which the health of society depends.
18) AI Arms Race: An arms race in lethal autonomous weapons should be avoided.
Longer-term Issues
19) Capability Caution: There being no consensus, we should avoid strong assumptions regarding upper limits on future AI capabilities.
20) Importance: Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources.
21) Risks: Risks posed by AI systems, especially catastrophic or existential risks, must be subject to planning and mitigation efforts commensurate with their expected impact.
22) Recursive Self-Improvement: AI systems designed to recursively self-improve or self-replicate in a manner that could lead to rapidly increasing quality or quantity must be subject to strict safety and control measures.
23) Common Good: Superintelligence should only be developed in the service of widely shared ethical ideals, and for the benefit of all humanity rather than one state or organization.