Wikipedista:Čtuto/Prompt engineering

Prompt inženýrství je koncept umělé inteligence, zejména zpracování přirozeného jazyka (zkr. NLP). V prompt engineeringu (prompt inženýrství) je popis úkolu, který má umělá inteligence (AI) provést, vložen do vstupu, např. jako otázka, místo toho, aby byl explicitně zadán. Prompt engineering obvykle funguje tak, že se jeden nebo více úkolů převede na datovou sadu založenou na promptech a jazykový model se natrénuje pomocí toho, co se nazývá „učení založené na promptu“.[1][2]

Prompt inženýrství, anglicky prompt engineering (zkr. PE), je proces efektivní komunikace s umělou inteligencí za účelem dosažení požadovaných výsledků.[3]

Prompt je specifická instrukce (také výzva či příkaz), která vede k požadované odpovědi modelu. Cílem promptu je poskytnout jazykovému modelu kontext a směr, kterým ho bude vést k vytváření přesnějších a relevantnějších odpovědí[4].

Historie

editovat

Jazykové modely GPT-2 a GPT-3 [5] byly důležitými kroky v prompt inženýrství. V roce 2021 multitask prompt inženýrství pomocí více datových sad NLP prokázalo dobrý výkon u nových úloh.[6] V metodě zvané chain-of-thought (CoT) byly jazykovému modelu poskytnuty tzv. few-shot příklady (technika ukázání modelu několik příkladů, tzv. shotů, toho, co uživatel, aby LLM udělal[7]), což zlepšilo jeho schopnost uvažovat. [8] Široká dostupnost těchto nástrojů byla podpořena zveřejněním několika zápisniků s otevřeným zdrojovým kódem a komunitně vedených projektů pro syntézu obrazků. [9]

Popis zpracování promptů uvedl, že v únoru 2022 bylo k dispozici více než 2 000 veřejných promptů pro přibližně 170 datových sad. [10]

Techniky

editovat

Ladění prefixů

editovat

Prompt engineering může fungovat z velkého jazykového modelu (LLM), který je „zmrazen“ (v tom smyslu, že je předtrénovaný), kde se učí pouze reprezentace promptu (jinými slovy se LLM optimalizuje), pomocí metod jako „prefix-tuning“ nebo „prompt tuning“. [11] [12]

Chain-of-thought

editovat

Chain-of-thought prompting neboli prompting pomocí myšlenkového řetězce (Chain-of-thought prompting, zkr. CoT) zlepšuje schopnost uvažování LLM tím, že je podněcuje k vytvoření řady mezikroků, které vedou ke konečné odpovědi na vícekrokový problém.[13] Tato technika byla poprvé navržena výzkumníky Google v roce 2022. [14] [15]

Hlavní myšlenka CoT spočívá v tom, že ukázáním několika málo záběrů tzv. exemplářů (příkladů), kde se argumentace vysvětluje v exemplářích, LLM také ukáže proces uvažování při odpovídání na prompt. Toto vysvětlení uvažování často vede k přesnějším výsledkům.[16]

Existují dva hlavní způsoby, jak vyvolat CoT: few-shot prompting a zero-shot prompting. Zero-shot prompting je nejzákladnější formou promptingu. Uživatel modelu jednoduše ukáže prompt bez příkladů a požádá ho, aby vytvořil odpověď. Příkladem zero-shot promptu je:

Sečti 2+2

Jedná se o zero-shot, protože modelu nebyly neukázány žádné kompletní příklady.[17]

Few-shot prompting je když se modelu ukážou 2 nebo více příkladů. Analogií few-shot promptu výše uvedeného zero-shot promptu je:

Sečti 3+3: 6
Sečti 5+5: 10

Je to tak, protože se modelu ukázaly alespoň 2 úplné příklady (Sečti 3+3: 6 a Sečti 5+5: 10). Obvykle platí, že čím více příkladů modelu ukážete, tím lepší bude výstup, proto se ve většině případů dává přednost few-shot promptingu před 0-shot a 1-shot promptingem[18] (neboli prompt s žádným a jedním příkladem).

Zatímco uvažování CoT může zlepšit výkon úloh zpracování přirozeného jazyka, existují určité nevýhody. Modely LLM jsou často zkreslené směrem ke generování stereotypních odpovědí. Dokonce i při zavedení bezpečných ochranných prvků někdy generují toxické výstupy.[19] Obzvlášť předpojaté jsou výsledky zero-shot promptingu.[20] [[Kategorie:Lingvistika]] [[Kategorie:Zpracování přirozeného jazyka]] [[Kategorie:Strojové učení]] [[Kategorie:Umělá inteligence]]

  1. RADFORD, Alec; WU, Jeffrey; CHILD, Rewon. Language Models are Unsupervised Multitask Learners. www.wikidata.org. 2019-01-01. QID: Q95726769. Dostupné online [cit. 2023-06-05]. 
  2. LIU, Pengfei; YUAN, Weizhe; FU, Jinlan. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. www.wikidata.org. 2021-07-28. QID: Q109286554. Dostupné online [cit. 2023-06-05]. (English) 
  3. Bezplatný kurz umělé inteligence v češtině – @ai. www.shh.agency [online]. [cit. 2023-06-05]. Dostupné online. 
  4. Bezplatný kurz umělé inteligence v češtině – @ai. www.shh.agency [online]. [cit. 2023-06-05]. Dostupné online. 
  5. MANN, Benjamin; RYDER, Nick; SUBBIAH, Melanie. Language Models are Few-Shot Learners. arXiv, Advances in Neural Information Processing Systems 33. 2020-05-28. QID: Q95727440. Dostupné online [cit. 2023-06-05]. DOI 10.48550/ARXIV.2005.14165. (English) 
  6. SANH, Victor; WEBSON, Albert; RAFFEL, Colin. Multitask Prompted Training Enables Zero-Shot Task Generalization. www.wikidata.org. 2021-10-15. QID: Q108941092. Dostupné online [cit. 2023-06-05]. 
  7. Naučte se Promptování: Průvodce komunikací s umělou inteligencí. aipe.cz [online]. [cit. 2023-06-05]. Dostupné online. 
  8. WEI, Jason; WANG, Xuezhi; SCHUURMANS, Dale. Chain of Thought Prompting Elicits Reasoning in Large Language Models. www.wikidata.org. 2022-01-28. QID: Q111971110. Dostupné online [cit. 2023-06-05]. DOI 10.48550/ARXIV.2201.11903. (English) 
  9. [s.l.]: [s.n.] Dostupné online. ISBN 9781450391573. DOI 10.1145/3491102.3501825. 
  10. BACH, Stephen H.; SANH, Victor; YONG, Zheng-Xin. PromptSource: An Integrated Development Environment and Repository for Natural Language Prompts. www.wikidata.org. 2022-02-02. QID: Q110839490. Dostupné online [cit. 2023-06-05]. 
  11. LI, Xiang Lisa; LIANG, Percy. Prefix-Tuning: Optimizing Continuous Prompts for Generation. In: Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). [s.l.]: [s.n.], 2021-08-01. QID: Q110887424. Dostupné online. DOI 10.18653/V1/2021.ACL-LONG.353. S. 4582–4597. (English)
  12. LESTER, Brian; AL-RFOU, Rami; CONSTANT, Noah. The Power of Scale for Parameter-Efficient Prompt Tuning. In: Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing. [s.l.]: [s.n.], 2021-11-01. QID: Q110887400. Dostupné online. DOI 10.18653/V1/2021.EMNLP-MAIN.243. S. 3045–3059. (English)
  13. Naučte se Promptování: Průvodce komunikací s umělou inteligencí. aipe.cz [online]. [cit. 2023-06-05]. Dostupné online. 
  14. openreview.net. Dostupné online. arXiv 2201.11903. 
  15. Dostupné online. (anglicky) 
  16. Naučte se Promptování: Průvodce komunikací s umělou inteligencí. aipe.cz [online]. [cit. 2023-06-05]. Dostupné online. 
  17. Naučte se Promptování: Průvodce komunikací s umělou inteligencí. aipe.cz [online]. [cit. 2023-06-05]. Dostupné online. 
  18. Naučte se Promptování: Průvodce komunikací s umělou inteligencí. aipe.cz [online]. [cit. 2023-06-05]. Dostupné online. 
  19. Naučte se Promptování: Průvodce komunikací s umělou inteligencí. aipe.cz [online]. [cit. 2023-06-05]. Dostupné online. 
  20. YANG, Jingfeng; JIANG, Haoming; YIN, Qingyu. SEQZERO: Few-shot Compositional Semantic Parsing with Sequential Prompts and Zero-shot Models. In: Findings of the Association for Computational Linguistics: NAACL 2022. Stroudsburg, PA, USA: Association for Computational Linguistics, 2022. Dostupné online. DOI 10.18653/v1/2022.findings-naacl.5.