Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/AI alignment
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/AI_alignment
http://dbpedia.org/ontology/abstract Проблема контроля искусственного интеллектПроблема контроля искусственного интеллекта — задача в области техники и философии искусственного интеллекта (ИИ). Состоит в том, чтобы создать искусственный сверхразум, который будет полезен людям, и при этом избежать непреднамеренного создания сверхразума, который нанесёт вред. Особенно важно избежать ситуации, при которой искусственный интеллект сможет захватить контроль и сделает невозможным своё отключение. Результаты исследований контроля ИИ могут также найти применение в управлении уже существующими системами ИИ.управлении уже существующими системами ИИ. , In the field of artificial intelligence (AIn the field of artificial intelligence (AI), AI alignment research aims to steer AI systems towards their designers’ intended goals and interests. An aligned AI system advances the intended objective; a misaligned AI system is competent at advancing some objective, but not the intended one. AI systems can be challenging to align and misaligned systems can malfunction or cause harm. It can be difficult for AI designers to specify the full range of desired and undesired behaviors. Therefore, they use easy-to-specify proxy goals that omit some desired constraints. However, AI systems exploit the resulting loopholes. As a result, they accomplish their proxy goals efficiently but in unintended, sometimes harmful ways (reward hacking). AI systems can also develop unwanted instrumental behaviors such as seeking power, as this helps them achieve their given goals. Furthermore, they can develop emergent goals that may be hard to detect before the system is deployed, facing new situations and data distributions. These problems affect existing commercial systems such as robots, language models, autonomous vehicles, and social media recommendation engines. However, more powerful future systems may be more severely affected since these problems partially result from high capability. The AI research community and the United Nations have called for technical research and policy solutions to ensure that AI systems are aligned with human values. AI alignment is a subfield of AI safety, the study of building safe AI systems. Other subfields of AI safety include robustness, monitoring, and capability control. Research challenges in alignment include instilling complex values in AI, developing honest AI, scalable oversight, auditing and interpreting AI models, as well as preventing emergent AI behaviors like power-seeking. Alignment research has connections to interpretability research, robustness, anomaly detection, calibrated uncertainty, formal verification, preference learning, safety-critical engineering, game theory, algorithmic fairness, and the social sciences, among others.ss, and the social sciences, among others. , En el campo de la inteligencia artificial,En el campo de la inteligencia artificial, la investigación sobre la alineación o el alineamiento (en inglés, AI alignment) se ocupa de buscar formas de dirigir el desarrollo de los sistemas de inteligencia artificial en conformidad con los objetivos e intereses de sus diseñadores.​Si un sistema es competente, pero persigue objetivos que no han sido previstos por los investigadores, se dice que no está alineado.​ La alineación de los sistemas de inteligencia artificial incluye los siguientes problemas: la dificultad de especificar completamente todos los comportamientos deseados y no deseados; el uso de objetivos intermedios fáciles de especificar que omiten restricciones deseables; trampas para obtener recompensas, por medio de las cuales los sistemas encuentran lagunas en dichos objetivos intermedios, creando efectos colaterales;​ objetivos instrumentales, como la búsqueda de poder, que ayudan al sistema a lograr sus objetivos finales;​​​​ y objetivos emergentes que sólo se hacen patentes cuando el sistema se implementa en nuevas situaciones y distribuciones de datos.​​ Estos problemas afectan a sistemas comerciales como robots,​ modelos de lenguaje,​​ vehículos autónomos,​ y sistemas de recomendación de redes sociales.​​​ Se cree que los problemas son tanto más probables cuanto más capaz es el sistema, ya que en parte resultan de una alta capacidad.​​ La comunidad de investigadores de la inteligencia artificial y las Naciones Unidas han exigido tanto soluciones basadas en la investigación técnica como soluciones políticas para garantizar que los sistemas estén alineados con los valores humanos.​ La alineación de sistemas es parte de un campo de estudio más amplio llamado (en inglés, AI safety), es decir, el estudio de cómo construir sistemas de inteligencia artificial que sean seguros.​​ Las vías para la investigación de la alineación incluyen el aprendizaje de los valores y las preferencias humanas, el desarrollo de inteligencia artificial honesta, la supervisión extensible, el examen e interpretación de modelos de inteligencia artificial, y la prevención de comportamientos emergentes, como la búsqueda de poder.​​ La investigación de la alineación tiene conexiones con la investigación de la interpretabilidad,​ la solidez,​​ la detección de anomalías, la incertidumbre calibrada,​ la verificación formal,​ el aprendizaje por preferencias,​​​ la ingeniería de seguridad,​ la teoría de juegos,​​ la equidad algorítmica,​​ y las ciencias sociales,​ entre otros.,​​ y las ciencias sociales,​ entre otros. , تتمثل مشكلة التحكم في الذكاء الاصطناعي، فيتتمثل مشكلة التحكم في الذكاء الاصطناعي، في مجال الذكاء الاصطناعي والفلسفة، في مسألة كيفية بناء وكيل فائق الذكاء يساعد منشئيه، وتجنب بناء ذكاء فائق عن غير قصد يمكن أن يضر منشئيه. تحفز الفكرة القائلة إنه يتعين على البشرية حل مشكلة التحكم قبل إنشاء أي ذكاء فائق دراسة هذه المشكلة، لأن الذكاء الفائق سيء التصميم قد يقرر بعقلانية السيطرة على بيئته ويرفض السماح لمنشئيه بتعديله بعد الإطلاق. بالإضافة إلى ذلك، يزعم بعض العلماء بأن حلول مشكلة التحكم، إلى جانب التطورات الأخرى في هندسة السلامة في الذكاء الاصطناعي، قد تطبق أيضًا تطبيقات في الذكاء الاصطناعي الحالي غير فائق الذكاء. تشمل النهج الرئيسية لمشكلة التحكم المواءمة، التي تهدف إلى مواءمة نظم أهداف الذكاء الاصطناعي مع القيم البشرية، والتحكم في القدرات، التي تهدف إلى تقليل قدرة نظام الذكاء الاصطناعي على إيذاء البشر أو السيطرة. لا تعتبر مقترحات التحكم في القدرات عمومًا موثوقة أو كافية لحل مشكلة التحكم، بل تعتبر مكملات قيمة محتملة لجهود المواءمة.ل تعتبر مكملات قيمة محتملة لجهود المواءمة. , Dalam kecerdasan buatan (AI) dan filsafat,Dalam kecerdasan buatan (AI) dan filsafat, masalah pengendalian kecerdasan buatan adalah permasalahan tentang bagaimana membangun agen kecerdasan super yang tunduk pada penciptanya. Menghindari pembuatan kecerdasan super yang akan merugikan penciptanya secara tidak sengaja. Kajian tentang masalah ini dimotivasi oleh gagasan bahwa umat manusia harus menyelesaikan masalah pengendalian AI sebelum kecerdasan super dibuat, karena kecerdasan super yang dirancang dengan buruk mungkin secara rasional memutuskan untuk mengambil kendali atas lingkungannya dan menentang kontrol atau modifikasi penciptanya setelah diluncurkan. Beberapa ahli berpendapat bahwa solusi untuk masalah kontrol ini bisa meningkatkan teknologi rekayasa keselamatan AI. Solusi dari masalah ini mungkin juga bisa diterapkan dalam AI non-kecerdasan super yang sudah ada. Salah satu pendekatan utama untuk mengatasi masalah kontrol ini adalah upaya penyelarasan (alignment), yang bertujuan menyelaraskan visi sistem AI dengan nilai-nilai yang dianut manusia. Selain penyelarasan sistem AI, kontrol kemampuan juga bisa digunakan untuk mengurangi risiko dari sistem AI yang merugikan manusia atau mendapatkan kendali. Pengendalian kapabilitas atau kontrol kemampuan umumnya dianggap kurang untuk memecahkan masalah kontrol AI. Pengendalian kemampuan lebih sering dianggap sebagai tambahan dari upaya penyelarasan AI.bagai tambahan dari upaya penyelarasan AI.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Midas_gold2.jpg?width=300 +
http://dbpedia.org/ontology/wikiPageID 50785023
http://dbpedia.org/ontology/wikiPageLength 87027
http://dbpedia.org/ontology/wikiPageRevisionID 1122707638
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Domain_adaptation + , http://dbpedia.org/resource/Multivac + , http://dbpedia.org/resource/Death_of_Elaine_Herzberg + , http://dbpedia.org/resource/David_A._McAllester + , http://dbpedia.org/resource/Misaligned_goals_in_artificial_intelligence + , http://dbpedia.org/resource/File:Midas_gold2.jpg + , http://dbpedia.org/resource/Marvin_Minsky + , http://dbpedia.org/resource/Instrumental_convergence + , http://dbpedia.org/resource/Neural_network + , http://dbpedia.org/resource/Category:Philosophy_of_artificial_intelligence + , http://dbpedia.org/resource/UK + , http://dbpedia.org/resource/Secretary-General_of_the_United_Nations + , http://dbpedia.org/resource/Category:Computational_neuroscience + , http://dbpedia.org/resource/Alan_Turing + , http://dbpedia.org/resource/Bart_Selman + , http://dbpedia.org/resource/Social_science + , http://dbpedia.org/resource/Open_Letter_on_Artificial_Intelligence + , http://dbpedia.org/resource/University_of_Oxford + , http://dbpedia.org/resource/People%27s_Republic_of_China + , http://dbpedia.org/resource/Yann_LeCun + , http://dbpedia.org/resource/Eric_Horvitz + , http://dbpedia.org/resource/Shane_Legg + , http://dbpedia.org/resource/Race_to_the_bottom + , http://dbpedia.org/resource/Stuart_J._Russell + , http://dbpedia.org/resource/Three_Laws_of_Robotics + , http://dbpedia.org/resource/Murray_Shanahan + , http://dbpedia.org/resource/Category:Singularitarianism + , http://dbpedia.org/resource/Toronto_Declaration + , http://dbpedia.org/resource/Partially_observable_Markov_decision_process + , http://dbpedia.org/resource/Norbert_Wiener + , http://dbpedia.org/resource/AI_takeover + , http://dbpedia.org/resource/Gary_Marcus + , http://dbpedia.org/resource/AI_capability_control + , http://dbpedia.org/resource/Regulation_of_artificial_intelligence + , http://dbpedia.org/resource/Marcus_Hutter + , http://dbpedia.org/resource/Black_box + , http://dbpedia.org/resource/Yoshua_Bengio + , http://dbpedia.org/resource/OpenAI + , http://dbpedia.org/resource/Peter_Norvig + , http://dbpedia.org/resource/Formal_verification + , http://dbpedia.org/resource/Moral_realism + , http://dbpedia.org/resource/Anomaly_detection + , http://dbpedia.org/resource/Ilya_Sutskever + , http://dbpedia.org/resource/J%C3%BCrgen_Schmidhuber + , http://dbpedia.org/resource/Fairness_%28machine_learning%29 + , http://dbpedia.org/resource/DeepMind + , http://dbpedia.org/resource/Uncertainty_quantification + , http://dbpedia.org/resource/HAL_9000 + , http://dbpedia.org/resource/Asilomar_Conference_on_Beneficial_AI + , http://dbpedia.org/resource/Scott_Aaronson + , http://dbpedia.org/resource/File:Misaligned_boat_racing_AI_crashes_to_collect_points_instead_of_finishing_the_race.ogg + , http://dbpedia.org/resource/Reinforcement_learning + , http://dbpedia.org/resource/File:GPT-3_falsehoods.png + , http://dbpedia.org/resource/File:Robot_hand_trained_with_human_feedback_%27pretends%27_to_grasp_ball.ogg + , http://dbpedia.org/resource/Superintelligence + , http://dbpedia.org/resource/Machine_ethics + , http://dbpedia.org/resource/Recommender_system + , http://dbpedia.org/resource/Coherent_extrapolated_volition + , http://dbpedia.org/resource/Robust_optimization + , http://dbpedia.org/resource/Explainable_artificial_intelligence + , http://dbpedia.org/resource/Existential_risk_from_artificial_general_intelligence + , http://dbpedia.org/resource/Global_catastrophic_risks + , http://dbpedia.org/resource/Goodhart%27s_law + , http://dbpedia.org/resource/Artificial_general_intelligence + , http://dbpedia.org/resource/Category:Existential_risk_from_artificial_general_intelligence + , http://dbpedia.org/resource/Francesca_Rossi + , http://dbpedia.org/resource/Revealed_preference + , http://dbpedia.org/resource/Safety-critical_system + , http://dbpedia.org/resource/Oren_Etzioni + , http://dbpedia.org/resource/Game_theory + , http://dbpedia.org/resource/Judea_Pearl + , http://dbpedia.org/resource/Artificial_wisdom + , http://dbpedia.org/resource/Fran%C3%A7ois_Chollet + , http://dbpedia.org/resource/Artificial_Intelligence:_A_Modern_Approach + , http://dbpedia.org/resource/Inclusive_fitness + , http://dbpedia.org/resource/Volkswagen_emissions_scandal +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Notelist + , http://dbpedia.org/resource/Template:Artificial_intelligence + , http://dbpedia.org/resource/Template:En_dash + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Efn + , http://dbpedia.org/resource/Template:Use_American_English + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:See_also + , http://dbpedia.org/resource/Template:Section_link + , http://dbpedia.org/resource/Template:Use_mdy_dates + , http://dbpedia.org/resource/Template:Existential_risk_from_artificial_intelligence +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Existential_risk_from_artificial_general_intelligence + , http://dbpedia.org/resource/Category:Philosophy_of_artificial_intelligence + , http://dbpedia.org/resource/Category:Singularitarianism + , http://dbpedia.org/resource/Category:Computational_neuroscience +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/AI_alignment?oldid=1122707638&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/GPT-3_falsehoods.png + , http://commons.wikimedia.org/wiki/Special:FilePath/Midas_gold2.jpg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/AI_alignment +
owl:sameAs http://www.wikidata.org/entity/Q24882728 + , http://fa.dbpedia.org/resource/%D9%85%D8%B3%D8%A6%D9%84%D9%87_%DA%A9%D9%86%D8%AA%D8%B1%D9%84_%D9%87%D9%88%D8%B4_%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C + , http://id.dbpedia.org/resource/Masalah_pengendalian_kecerdasan_buatan + , https://global.dbpedia.org/id/2LgD2 + , http://dbpedia.org/resource/AI_alignment + , http://es.dbpedia.org/resource/Alineaci%C3%B3n_de_la_inteligencia_artificial + , http://ar.dbpedia.org/resource/%D9%85%D8%B4%D9%83%D9%84%D8%A9_%D8%A7%D9%84%D8%AA%D8%AD%D9%83%D9%85_%D9%81%D9%8A_%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1_%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A + , http://ru.dbpedia.org/resource/%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D0%B0_%D0%BA%D0%BE%D0%BD%D1%82%D1%80%D0%BE%D0%BB%D1%8F_%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D0%B0 +
rdfs:comment Dalam kecerdasan buatan (AI) dan filsafat,Dalam kecerdasan buatan (AI) dan filsafat, masalah pengendalian kecerdasan buatan adalah permasalahan tentang bagaimana membangun agen kecerdasan super yang tunduk pada penciptanya. Menghindari pembuatan kecerdasan super yang akan merugikan penciptanya secara tidak sengaja. Kajian tentang masalah ini dimotivasi oleh gagasan bahwa umat manusia harus menyelesaikan masalah pengendalian AI sebelum kecerdasan super dibuat, karena kecerdasan super yang dirancang dengan buruk mungkin secara rasional memutuskan untuk mengambil kendali atas lingkungannya dan menentang kontrol atau modifikasi penciptanya setelah diluncurkan. Beberapa ahli berpendapat bahwa solusi untuk masalah kontrol ini bisa meningkatkan teknologi rekayasa keselamatan AI. Solusi dari masalah ini mungkin juga bisa diterapkan dalam ah ini mungkin juga bisa diterapkan dalam , En el campo de la inteligencia artificial,En el campo de la inteligencia artificial, la investigación sobre la alineación o el alineamiento (en inglés, AI alignment) se ocupa de buscar formas de dirigir el desarrollo de los sistemas de inteligencia artificial en conformidad con los objetivos e intereses de sus diseñadores.​Si un sistema es competente, pero persigue objetivos que no han sido previstos por los investigadores, se dice que no está alineado.​stigadores, se dice que no está alineado.​ , Проблема контроля искусственного интеллектПроблема контроля искусственного интеллекта — задача в области техники и философии искусственного интеллекта (ИИ). Состоит в том, чтобы создать искусственный сверхразум, который будет полезен людям, и при этом избежать непреднамеренного создания сверхразума, который нанесёт вред. Особенно важно избежать ситуации, при которой искусственный интеллект сможет захватить контроль и сделает невозможным своё отключение. Результаты исследований контроля ИИ могут также найти применение в управлении уже существующими системами ИИ.управлении уже существующими системами ИИ. , تتمثل مشكلة التحكم في الذكاء الاصطناعي، فيتتمثل مشكلة التحكم في الذكاء الاصطناعي، في مجال الذكاء الاصطناعي والفلسفة، في مسألة كيفية بناء وكيل فائق الذكاء يساعد منشئيه، وتجنب بناء ذكاء فائق عن غير قصد يمكن أن يضر منشئيه. تحفز الفكرة القائلة إنه يتعين على البشرية حل مشكلة التحكم قبل إنشاء أي ذكاء فائق دراسة هذه المشكلة، لأن الذكاء الفائق سيء التصميم قد يقرر بعقلانية السيطرة على بيئته ويرفض السماح لمنشئيه بتعديله بعد الإطلاق. بالإضافة إلى ذلك، يزعم بعض العلماء بأن حلول مشكلة التحكم، إلى جانب التطورات الأخرى في هندسة السلامة في الذكاء الاصطناعي، قد تطبق أيضًا تطبيقات في الذكاء الاصطناعي الحالي غير فائق الذكاء.ي الذكاء الاصطناعي الحالي غير فائق الذكاء. , In the field of artificial intelligence (AIn the field of artificial intelligence (AI), AI alignment research aims to steer AI systems towards their designers’ intended goals and interests. An aligned AI system advances the intended objective; a misaligned AI system is competent at advancing some objective, but not the intended one. The AI research community and the United Nations have called for technical research and policy solutions to ensure that AI systems are aligned with human values. AI systems are aligned with human values.
rdfs:label Проблема контроля искусственного интеллекта , AI alignment , مشكلة التحكم في الذكاء الاصطناعي , Masalah pengendalian kecerdasan buatan , Alineación de la inteligencia artificial
rdfs:seeAlso http://dbpedia.org/resource/Regulation_of_artificial_intelligence + , http://dbpedia.org/resource/Existential_risk_from_artificial_general_intelligence +
hide properties that link here 
http://dbpedia.org/resource/The_Alignment_Problem + http://dbpedia.org/ontology/nonFictionSubject
http://dbpedia.org/resource/Alignment_problem + , http://dbpedia.org/resource/AI_control_problem + , http://dbpedia.org/resource/AI_Nanny + , http://dbpedia.org/resource/AI_safety + , http://dbpedia.org/resource/Control_problem + , http://dbpedia.org/resource/Reward_modeling + , http://dbpedia.org/resource/AI_safety_engineering + , http://dbpedia.org/resource/Agi_alignment + , http://dbpedia.org/resource/Agi_enforcement + , http://dbpedia.org/resource/Agi_nanny + , http://dbpedia.org/resource/Ai_alignment + , http://dbpedia.org/resource/Aligned_agi + , http://dbpedia.org/resource/Aligned_ai + , http://dbpedia.org/resource/AI-control_problem + , http://dbpedia.org/resource/Oracle_AI + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Global_catastrophic_risk + , http://dbpedia.org/resource/Effective_altruism + , http://dbpedia.org/resource/Friendly_artificial_intelligence + , http://dbpedia.org/resource/Eric_Horvitz + , http://dbpedia.org/resource/Eliezer_Yudkowsky + , http://dbpedia.org/resource/Technology + , http://dbpedia.org/resource/AI_capability_control + , http://dbpedia.org/resource/Regulation_of_artificial_intelligence + , http://dbpedia.org/resource/Alignment_problem + , http://dbpedia.org/resource/Artificial_general_intelligence + , http://dbpedia.org/resource/AI_control_problem + , http://dbpedia.org/resource/Collin_Burns + , http://dbpedia.org/resource/AI_Nanny + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Multi-agent_reinforcement_learning + , http://dbpedia.org/resource/The_Alignment_Problem + , http://dbpedia.org/resource/AI_safety + , http://dbpedia.org/resource/Control_problem + , http://dbpedia.org/resource/Reward_modeling + , http://dbpedia.org/resource/AI_safety_engineering + , http://dbpedia.org/resource/Agi_alignment + , http://dbpedia.org/resource/Agi_enforcement + , http://dbpedia.org/resource/Agi_nanny + , http://dbpedia.org/resource/Ai_alignment + , http://dbpedia.org/resource/Aligned_agi + , http://dbpedia.org/resource/Aligned_ai + , http://dbpedia.org/resource/AI-control_problem + , http://dbpedia.org/resource/Oracle_AI + , http://dbpedia.org/resource/Anti-artificial_intelligence + http://dbpedia.org/ontology/wikiPageWikiLink
http://dbpedia.org/resource/The_Alignment_Problem + http://dbpedia.org/property/subject
http://en.wikipedia.org/wiki/AI_alignment + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/AI_alignment + owl:sameAs
http://dbpedia.org/resource/Existential_risk_from_artificial_general_intelligence + rdfs:seeAlso
 

 

Enter the name of the page to start semantic browsing from.