Generative vortrainierte Transformer (englisch Generative pre-trained transformers, GPT) sind eine Art großes Sprachmodell Large Language Model (LLM) und ein bedeutendes Framework für generative künstliche Intelligenz. Das erste GPT wurde 2018 vom amerikanischen Unternehmen für künstliche Intelligenz (KI) OpenAI vorgestellt. GPT-Modelle sind künstliche neuronale Netzwerke, die auf der Transformer-Architektur basieren, auf großen Datensätzen unbeschrifteten Textes vorab trainiert werden und in der Lage sind, neuartige, menschenähnliche Inhalte zu generieren. Bis 2023 haben die meisten LLMs diese Eigenschaften und werden manchmal allgemein als GPTs bezeichnet.

OpenAI hat sehr einflussreiche GPT-Grundmodelle veröffentlicht, die fortlaufend nummeriert wurden und die „GPT-n“-Serie bilden. Jedes dieser Modelle war signifikant leistungsfähiger als das vorherige, aufgrund zunehmender Größe (Anzahl der trainierbaren Parameter) und des Trainings. Das jüngste dieser Modelle, GPT-4, wurde im März 2023 veröffentlicht. Solche Modelle bilden die Grundlage für ihre spezifischeren GPT-Systeme, einschließlich Modellen, die für die Anweisungsbefolgung optimiert wurden und wiederum den ChatGPT-Chatbot-Service antreiben.

Der Begriff „GPT“ wird auch in den Namen und Beschreibungen von Modellen verwendet, die von anderen entwickelt wurden. Zum Beispiel umfasst eine Reihe von Modellen, die von EleutherAI erstellt wurden, weitere GPT-Grundmodelle. Kürzlich wurden auch sieben Modelle von Cerebras erstellt. Auch Unternehmen in verschiedenen Branchen haben auf ihren jeweiligen Gebieten aufgabenorientierte GPTs entwickelt, wie z. B. „EinsteinGPT“ von Salesforce (für CRM) und „BloombergGPT“ von Bloomberg (für Finanzen).

Geschichte

Generatives Vortraining (GP) war ein etabliertes Konzept in der Anwendung von maschinellem Lernen, aber die Transformer-Architektur war erst ab 2017 verfügbar, als sie von Mitarbeitern bei Google erfunden wurde. Diese Entwicklung führte zur Entstehung großer Sprachmodelle wie BERT im Jahr 2018 und XLNet im Jahr 2019, die vorab trainierte Transformer (PT) waren, aber nicht generativ konzipiert wurden (sie waren nur „Encoder“). Auch um diese Zeit herum, im Jahr 2018, veröffentlichte OpenAI den Artikel Improving Language Understanding by Generative Pre-Training, in dem das erste generative vorab trainierte Transformer(GPT)-System vorgestellt wurde.

Vor den auf Transformer-Architekturen basierenden Modellen verwendeten die leistungsstärksten neuronalen NLP(Natural Language Processing)-Modelle häufig überwachtes Lernen aus großen Mengen manuell beschrifteter Daten. Die Abhängigkeit vom überwachten Lernen beschränkte ihren Einsatz auf Datensätze, die nicht gut annotiert waren, und machte es auch zu teuer und zeitaufwendig, extrem große Sprachmodelle zu trainieren.

Der halbüberwachte Ansatz, den OpenAI verwendete, um ein groß angelegtes generatives System zu schaffen – und das erste, das mit einem Transformer-Modell gemacht wurde – umfasste zwei Phasen: eine unbeaufsichtigte, generative „Vortrainings“-Phase, um die anfänglichen Parameter anhand eines Sprachmodellierungsziels festzulegen, und eine überwachte, diskriminative „Feinabstimmungs“-Phase, um diese Parameter an eine Ziel-Aufgabe anzupassen.

Grundlagenmodell

Ein Grundlagenmodell ist ein KI-Modell, das auf umfangreichen Daten in großem Maßstab trainiert wird, so dass es an eine Vielzahl von nachgelagerten Aufgaben angepasst werden kann.

Bislang waren die bemerkenswertesten GPT-Grundmodelle OpenAI's GPT-n Serie. Das jüngste davon ist GPT-4, zu dem OpenAI die Größe oder Details zum Training nicht veröffentlicht hat (unter Berufung auf „den Wettbewerbsdruck und die Sicherheitsauswirkungen von Modellen im großen Maßstab“).

OpenAI’s „GPT-n“ series
Modell Architektur Anzahl Parameter Trainingsdaten Veröffentlichungsdatum Trainingskosten
GPT-1 12-stufiger 12-Kopf-Transformer-Decoder (kein Encoder), gefolgt von Linear-Softmax. 117 Millionen BookCorpus: 4,5 GB Text aus 7000 unveröffentlichten Büchern verschiedener Genres. 11. Juni 2018 „1 Monat auf 8 GPUs“, oder 1.7e19 FLOP.
GPT-2 GPT-1, jedoch mit modifizierter Normalisierung 1,5 Milliarden WebText: 40 GB Text, 8 Millionen Dokumente, von 45 Millionen Webseiten, die auf Reddit positiv bewertet wurden. 14. Februar 2019 (erste/eingeschränkte Version) und 5. November 2019 (Vollversion) „Zehner Petaflop/s-Tag“, oder 1,5e21 FLOP.
GPT-3 GPT-2, jedoch mit Modifikation, um eine größere Skalierung zu ermöglichen 175 Milliarden 499 Milliarden Token, bestehend aus CommonCrawl (570 GB), WebText, englischer Wikipedia und zwei Buchkorpora (Books1 und Books2). 28. Mai 2020 3640 Petaflop/s-Tag (Tabelle D.1), oder 3,1e23 FLOP.
GPT-3.5 nicht bekannt gegeben 175 Milliarden nicht bekannt gegeben 15. März 2022 nicht bekannt gegeben
GPT-4 Auch mit Textvorhersage und RLHF trainiert; akzeptiert sowohl Text als auch Bilder als Eingabe. Weitere Details sind nicht öffentlich. nicht bekannt gegeben nicht bekannt gegeben 14. März 2023 nicht bekannt gegeben. Geschätzter 2,1e25 FLOP.

Andere solche Modelle umfassen Google's PaLM, ein breites Grundlagenmodell, das mit GPT-3 verglichen wurde und kürzlich über eine API für Entwickler verfügbar gemacht wurde, sowie Together's GPT-JT, das als die engste Open-Source-Alternative zu GPT-3 gilt (und von früheren Open-Source-GPTs abgeleitet ist). Meta AI (ehemals Facebook) hat ebenfalls ein generatives, transformerbasiertes grundlegendes Sprachmodell namens LLaMA.

Grundlegende GPTs können auch Modalitäten neben Text für die Eingabe und/oder Ausgabe verwenden. GPT-4 ist ein multimodales LLM, das in der Lage ist, Text- und Bilddaten zu verarbeiten (wobei die Ausgabe auf Text beschränkt ist). Bezüglich multimodaler Ausgabe werden generative, transformerbasierte Modelle für Text-zu-Bild-Technologien wie Diffusion und parallele Dekodierung eingesetzt. Solche Modelle können als visuelle Grundlagenmodelle (VFMs) dienen, um nachgelagerte Systeme zu entwickeln, die mit Bildern arbeiten können.

Aufgabenorientierte Modelle

Ein grundlegendes GPT-Modell kann weiter angepasst werden, um gezieltere Systeme für spezifische Aufgaben und/oder Fachbereiche zu erstellen. Methoden für solche Anpassungen können zusätzliches Feintuning (über das für das Grundlagenmodell durchgeführte hinaus) sowie bestimmte Formen der Anweisungsgestaltung umfassen.

Ein wichtiges Beispiel dafür ist das Feintuning von Modellen, um Anweisungen zu befolgen, was natürlich eine recht breite Aufgabe, aber zielgerichteter als ein Grundlagenmodell ist. Im Januar 2022 führte OpenAI „InstructGPT“ ein, eine Serie von Modellen, die mit Hilfe einer Kombination aus überwachtem Training und verstärkendem Lernen durch menschliches Feedback (RLHF) auf der Basis von GPT-3-Sprachmodellen darauf trainiert wurden, Anweisungen zu befolgen. Die Vorteile gegenüber den reinen Grundlagenmodellen umfassten eine höhere Genauigkeit, weniger negative/toxische Stimmung und eine allgemein bessere Übereinstimmung mit den Benutzerbedürfnissen. Daher begann OpenAI, dies als Grundlage für seine API-Serviceangebote zu nutzen. Auch andere an Anweisungen angepasste Modelle wurden von anderen veröffentlicht, einschließlich einer vollständig offenen Version.

Eine andere (verwandte) Art von aufgabenorientierten Modellen sind Chatbots, die menschenähnliche Unterhaltungen führen. Im November 2022 startete OpenAI ChatGPT, eine Online-Chat-Schnittstelle, die von einem aufgabenangepassten Sprachmodell betrieben wird, das ähnlich wie InstructGPT trainiert wurde. Dieses Modell wurde mit RLHF trainiert, wobei menschliche KI-Trainer Gespräche führten, in denen sie sowohl den Benutzer als auch die KI spielten, und dieser neue Dialogdatensatz mit dem InstructGPT-Datensatz für ein Unterhaltungsformat kombiniert wurde, das für einen Chatbot geeignet ist. Zu den weiteren bedeutenden Chatbots gehören derzeit Microsofts Bing Chat, der OpenAIʼs GPT-4 verwendet (als Teil einer engeren Zusammenarbeit zwischen OpenAI und Microsoft), und Googles konkurrierender Chatbot Bard (ursprünglich basierend auf ihrer LaMDA-Familie von auf Konversation trainierten Sprachmodellen, mit Plänen, zu PaLM zu wechseln).

Eine weitere Art von Aufgabe, für die ein GPT verwendet werden kann, ist die Meta-Aufgabe, seine eigenen Anweisungen zu generieren, indem es eine Reihe von Vorgaben für „sich selbst“ entwickelt, um ein allgemeineres Ziel, das von einem menschlichen Benutzer gegeben wurde, zu erreichen. Dies wird als KI-Agent bezeichnet, genauer gesagt als ein rekursiver Agent, da er Ergebnisse aus seinen vorherigen Selbstanweisungen verwendet, um ihm bei der Bildung seiner nachfolgenden Vorgaben zu helfen. Das erste bedeutende Beispiel dafür war Auto-GPT (das OpenAIʼs GPT-Modelle verwendet), und seitdem wurden auch andere entwickelt.

Multimodalität

Generative, transformerbasierte Systeme können auch auf Aufgaben ausgerichtet sein, die Modalitäten jenseits von Text umfassen.

Microsofts „Visual ChatGPT“ zum Beispiel kombiniert ChatGPT mit visuellen Grundlagenmodellen (VFMs), um sowohl Bilder als auch Text als Eingabe oder Ausgabe zu ermöglichen. Darüber hinaus bieten Fortschritte in der Text-to-Speech-Technologie leistungsstarke Werkzeuge für die Erstellung von Audioinhalten, wenn sie in Verbindung mit grundlegenden GPT-Sprachmodellen verwendet werden.

Domänen-Spezifität

GPT-Systeme können auf bestimmte Bereiche oder Domänen ausgerichtet werden. Einige gemeldete Beispiele für solche Modelle und Apps sind wie folgt:

  • EinsteinGPT für die Bereiche Vertrieb und Marketing, um bei der Kundenbeziehungspflege zu helfen (verwendet GPT-3.5).
  • BloombergGPT für den Finanzbereich, um bei Finanznachrichten und -informationen zu helfen (verwendet „frei verfügbare“ KI-Methoden in Kombination mit ihren proprietären Daten).
  • Khanmigo eine Version von GPT für Nachhilfezwecke im Bildungsbereich, unterstützt Schüler bei der Nutzung von Khan Academy, indem es sie durch ihr Lernen führt, ohne direkte Antworten zu geben (betrieben von GPT-4).
  • SlackGPT für den Instant-Messaging-Dienst Slack, um bei der Navigation und Zusammenfassung von Diskussionen zu helfen (verwendet OpenAI's API).
  • BioGPT für den biomedizinischen Bereich, um bei der Generierung und Auswertung von biomedizinischen Literaturtexten zu helfen (verwendet GPT-2).

Manchmal wird die Domänenspezifität durch Software-Plug-Ins oder Erweiterungen erreicht. Zum Beispiel haben verschiedene Unternehmen spezielle Plug-Ins entwickelt, die direkt mit der ChatGPT-Schnittstelle von OpenAI interagieren, und Google Workspace bietet Erweiterungen wie „GPT für Sheets und Docs“ an, die angeblich die Nutzung von Tabellenkalkulationsfunktionen in Google Sheets erleichtern sollen.

Markenrechte

OpenAI, das im Jahr 2018 den ersten generativen vorab trainierten Transformer (GPT) entwickelte, hat kürzlich behauptet, dass „GPT“ als Marke von OpenAI angesehen werden sollte. Im April 2023 überarbeitete OpenAI die Markenrichtlinien in seinen Nutzungsbedingungen, um anzuzeigen, dass andere Unternehmen, die seine API nutzen, um ihre KI-Dienste auszuführen, „GPT“ nicht mehr in ihren Namen oder ihre Marken aufnehmen dürfen. Im Mai 2023 beauftragte OpenAI einen Markenverwaltungsdienst, um seine API-Kunden über diese Richtlinie zu informieren, jedoch wurden in diesen Benachrichtigungen keine offensichtlichen rechtlichen Ansprüche erhoben (wie Markenrechtsverletzungen oder Aufforderungen zur Einstellung).

Im Zusammenhang damit hat OpenAI beim United States Patent and Trademark Office (USPTO) einen Antrag auf Inlandsregistrierung der Marke „GPT“ im Bereich der KI gestellt. OpenAI hat versucht, die Bearbeitung seines Antrags zu beschleunigen, aber der USPTO hat diesen Antrag im April 2023 abgelehnt. Um die Marke genehmigt zu bekommen, müsste OpenAI nachweisen, dass der Begriff tatsächlich „distinctive“ für seine spezifischen Angebote ist und nicht allgemein als ein weiterer technischer Begriff für diese Art von Technologie verstanden wird. Einige Medienberichte legen nahe, dass OpenAI dies indirekt aufgrund der Bekanntheit seines auf GPT basierenden Chatbot-Produkts ChatGPT tun könnte, für das OpenAI separat Markenschutz beantragt hat (den es stärker durchzusetzen versucht). Andere Berichte deuten darauf hin, dass es unwahrscheinlich ist, dass die ausschließlichen Rechte an dem Begriff „GPT“ gewährt werden, da er häufig einfach verwendet wird, um auf KI-Systeme zu verweisen, die generative vorab trainierte Transformer beinhalten. Wenn exklusive Rechte an dem Begriff „GPT“selbst gewährt würden, müssten alle anderen, die ihn im Namen oder Branding ihrer entsprechenden Angebote verwenden, aufhören, es zu tun, es sei denn, sie haben die Erlaubnis. Selbst wenn dies geschehen würde, könnte die Markendoktrin des beschreibenden fairen Gebrauchs immer noch etwas Spielraum für die Fortsetzung der nicht markenbezogenen Verwendung bieten.

Einzelnachweise

  1. 1 2 Mohammed Haddad: How does GPT-4 work and how can you start using it in ChatGPT? In: www.aljazeera.com.
  2. 1 2 Generative AI: a game-changer society needs to be ready for. In: World Economic Forum.
  3. 1 2 The A to Z of Artificial Intelligence. In: Time. 13. April 2023 (time.com).
  4. Luhui Hu: Generative AI and Future. In: Medium. 15. November 2022.
  5. CSDL | IEEE Computer Society. In: www.computer.org.
  6. 1 2 3 Improving language understanding with unsupervised learning. In: openai.com. Abgerufen am 18. März 2023 (amerikanisches Englisch).
  7. Rob Toews: The Next Generation Of Large Language Models. In: Forbes.
  8. Joe Mckendrick: Most Jobs Soon To Be 'Influenced' By Artificial Intelligence, Research Out Of OpenAI And University Of Pennsylvania Suggests. In: Forbes. 13. März 2023.
  9. Ryan Morrison: Salesforce launches EinsteinGPT built with OpenAI technology. In: Tech Monitor. 7. März 2023.
  10. The ChatGPT of Finance is Here, Bloomberg is Combining AI and Fintech. In: Forbes.
  11. Geoffrey Hinton (et-al): Deep neural networks for acoustic modeling in speech recognition. In: IEEE Signal Processing Magazine. Digital Object Identifier 10.1109/MSP.2012.2205597. Jahrgang, 15. Oktober 2012, doi:10.1109/MSP.2012.2205597 (stanford.edu [PDF]).
  12. Li Deng: A tutorial survey of architectures, algorithms, and applications for deep learning | APSIPA Transactions on Signal and Information Processing | Cambridge Core. In: Apsipa Transactions on Signal and Information Processing. 3. Jahrgang. Cambridge.org, 22. Januar 2014, S. e2, doi:10.1017/atsip.2013.9 (cambridge.org [abgerufen am 21. Mai 2023]).
  13. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin: Attention Is All You Need. In: Computer Science. 5. Dezember 2017, arxiv:1706.03762.
  14. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In: Computer Science. 24. Mai 2019, arxiv:1810.04805v2.
  15. Zhilin Yang (et-al): XLNet. In: Proceedings from NeurIPS 2019. 2019 (neurips.cc [PDF]).
  16. Amit Raja Naik: Google Introduces New Architecture To Reduce Cost Of Transformers. In: Analytics India Magazine. 23. September 2021.
  17. 1 2 3 Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever: Improving Language Understanding by Generative Pre-Training. OpenAI, 11. Juni 2018, S. 12, abgerufen am 21. Januar 2021.
  18. Introducing the Center for Research on Foundation Models (CRFM). In: Stanford HAI.
  19. 1 2 OpenAI: GPT-4 Technical Report. 2023, abgerufen am 16. März 2023.
  20. 1 2 3 4 ML input trends visualization. In: Epoch. Abgerufen am 2. Mai 2023 (englisch).
  21. James Vincent: OpenAI has published the text-generating AI it said was too dangerous to share. In: The Verge. 7. November 2019.
  22. 1 2 3 Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei: Language Models are Few-Shot Learners. In: Computer Science. 28. Mai 2020, arxiv:2005.14165v4.
  23. 1 2 Dave Ver Meer: ChatGPT Statistics. In: NamePepper. 1. Juni 2023, abgerufen am 9. Juni 2023 (englisch).
  24. James Vincent: Google opens up its AI language model PaLM to challenge OpenAI and GPT-3. In: The Verge. 14. März 2023.
  25. Google Opens Access to PaLM Language Model.
  26. Aparna Iyer: Meet GPT-JT, the Closest Open Source Alternative to GPT-3. In: Analytics India Magazine. 30. November 2022.
  27. Meta Debuts AI Language Model, But It's Only for Researchers. In: PCMAG.
  28. Arham Islam: Multimodal Language Models: The Future of Artificial Intelligence (AI). 27. März 2023.
  29. Arham Islam: How Do DALL·E 2, Stable Diffusion, and Midjourney Work? 14. November 2022.
  30. Shritama Saha: Google Launches Muse, A New Text-to-Image Transformer Model. In: Analytics India Magazine. 4. Januar 2023.
  31. Chenfei Wu (et-al): Visual ChatGPT. 8. März 2023.
  32. Rishi Bommasani (et-al): On the Opportunities and Risks of Foundation Models. 12. Juli 2022.
  33. Aligning language models to follow instructions. In: openai.com. Abgerufen am 23. März 2023.
  34. Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, Ryan Lowe: Training language models to follow instructions with human feedback. In: Computer Science. 4. März 2022, arxiv:2203.02155.
  35. Meeta Ramnani: OpenAI dumps its own GPT-3 for something called InstructGPT, and for right reason. In: Analytics India Magazine. 28. Januar 2022.
  36. Stanford CRFM. In: crfm.stanford.edu.
  37. Free Dolly: Introducing the World's First Truly Open Instruction-Tuned LLM. In: Databricks. 12. April 2023.
  38. Introducing ChatGPT. In: openai.com. Abgerufen am 16. März 2023 (amerikanisches Englisch).
  39. Kyle Wiggers: Microsoft doubles down on AI with new Bing features. 4. Mai 2023.
  40. ChatGPT vs. Bing vs. Google Bard: Which AI Is the Most Helpful? In: CNET.
  41. Auto-GPT, BabyAGI, and AgentGPT: How to use AI agents. In: Mashable. 19. April 2023.
  42. Bernard Marr: Auto-GPT May Be The Strong AI Tool That Surpasses ChatGPT. In: Forbes.
  43. Microsoft Open-Sources Multimodal Chatbot Visual ChatGPT. In: InfoQ.
  44. Benj Edwards: Microsoft's new AI can simulate anyone's voice with 3 seconds of audio. In: Ars Technica. 9. Januar 2023.
  45. Ryan Morrison: Salesforce launches EinsteinGPT built with OpenAI technology. 7. März 2023.
  46. Kif Leswing: Bloomberg plans to integrate GPT-style A.I. into its terminal. In: CNBC. 13. April 2023.
  47. Learning nonprofit Khan Academy is piloting a version of GPT called Khanmigo. In: Fast Company. 4. Mai 2023, abgerufen am 22. Mai 2023.
  48. Khan Academy Pilots GPT-4 Powered Tool Khanmigo for Teachers -. In: THE Journal.
  49. Mark Hachman: Slack GPT will bring AI chatbots to your conversations. In: PCWorld. 4. Mai 2023.
  50. Renqian Luo (et-al): BioGPT: Generative pre-trained transformer for biomedical text generation and mining. In: Briefings in Bioinformatics. 23. Jahrgang, Nr. 6, 3. April 2023, doi:10.1093/bib/bbac409, PMID 36156661, arxiv:2210.10341.
  51. Know about ChatGPT's 13 best plugins, designed to improve your overall user experience – Latest Digital Transformation Trends | Cloud News | Wire19. 5. Mai 2023.
  52. ChatGPT plugins. In: openai.com.
  53. How to Use ChatGPT on Google Sheets With GPT for Sheets and Docs. In: MUO. 12. März 2023.
  54. Matt Asay: Embrace and extend Excel for AI data prep. In: InfoWorld. 27. Februar 2023.
  55. 1 2 3 4 William Hicks: ChatGPT creator OpenAI is asking startups to remove 'GPT' from their names. In: The Business Journal. 10. Mai 2023, abgerufen am 21. Mai 2023.
  56. OpenAI: Brand Guidelines. 24. April 2023, abgerufen am 21. Mai 2023.
  57. 1 2 Alexa Heah: OpenAI Unsuccessful At Speeding Up Its Attempt To Trademark 'GPT' In: DesignTAXI, 26. April 2023. Abgerufen am 21. Mai 2023. 
  58. 25 April 2023, 08:04 am: OpenAI Wants to Trademark 'GPT' Amid Rise of AI Chatbots. Tech Times, 25. April 2023, abgerufen am 21. Mai 2023.
  59. OpenAI files a UDRP case against the current owner of ChatGPT.com. Abgerufen am 21. Mai 2023 (amerikanisches Englisch).
  60. 1 2 Tramatm-Igor Demcak: OpenAI's Battle for Brand Protection: Can GPT be trademarked? In: Lexology. 26. April 2023, archiviert vom Original am 5. Mai 2023; abgerufen am 22. Mai 2023 (englisch).
  61. George Lawton: ChatGPT vs. GPT: How are they different? | TechTarget. In: Enterprise AI. 20. April 2023, archiviert vom Original am 9. Mai 2023; abgerufen am 21. Mai 2023 (englisch).
  62. Drew Robb: GPT-4 vs. ChatGPT: AI Chatbot Comparison. In: eWEEK. 12. April 2023, abgerufen am 21. Mai 2023 (amerikanisches Englisch).
  63. Husch Blackwell LLP-Kathleen A. Rheintgen: Branding 101: trademark descriptive fair use. In: Lexology. 16. August 2013, abgerufen am 21. Mai 2023 (englisch).
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.