<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>GPT4 &#8211; Ihr Experte für künstliche Intelligenz | Danny Gerst</title>
	<atom:link href="https://www.dannygerst.de/category/gpt4/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.dannygerst.de</link>
	<description></description>
	<lastBuildDate>Thu, 09 Nov 2023 18:03:09 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.7</generator>

<image>
	<url>https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/cropped-dannygerst-logo-2-32x32.png</url>
	<title>GPT4 &#8211; Ihr Experte für künstliche Intelligenz | Danny Gerst</title>
	<link>https://www.dannygerst.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Liste der ChatBot Sprachmodellen 2023</title>
		<link>https://www.dannygerst.de/liste-der-chatbot-sprachmodellen-2023/</link>
					<comments>https://www.dannygerst.de/liste-der-chatbot-sprachmodellen-2023/#respond</comments>
		
		<dc:creator><![CDATA[Danny Gerst]]></dc:creator>
		<pubDate>Thu, 09 Nov 2023 18:02:52 +0000</pubDate>
				<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[GPT4]]></category>
		<category><![CDATA[Open Source]]></category>
		<guid isPermaLink="false">https://www.dannygerst.de/?p=1251</guid>

					<description><![CDATA[In der faszinierenden Welt der Künstlichen Intelligenz erleben wir gerade eine wahre Renaissance der Sprachmodelle, die das Potenzial haben, unsere Interaktion mit Technologie grundlegend zu verändern. Das Jahr 2023 hat sich als ein Meilenstein in dieser dynamischen Landschaft erwiesen, mit einer beeindruckenden Anzahl an innovativen Durchbrüchen, die aus den digitalen Werkstätten der führenden Technologiegiganten und aufstrebenden Start-ups hervorgegangen sind. Und das Tempo nimmt noch zu.]]></description>
										<content:encoded><![CDATA[
<p>Diese Modelle, von denen jedes seine eigenen Stärken und Spezialgebiete aufweist, erweitern nicht nur unsere Vorstellung davon, was Maschinen verstehen und leisten können, sondern sie gestalten auch die Art und Weise neu, wie wir Menschen Informationen austauschen, Entscheidungen treffen und letztlich mit der Welt um uns herum interagieren. In den folgenden Absätzen tauchen wir tief ein in das Herz dieser Revolution und beleuchten die verschiedenen Sprachmodelle, die bereits jetzt im Jahr 2023 ihren Stempel aufgedrückt haben.</p>



<p>In diesem Beitrag enthält eine Liste viele kommerzieller und freier Sprachmodelle die 2023 erschienen sind. Die Liste enthält nur die KI Modelle, die auch frei zugänglich sind.</p>



<p>Jedes dieser Modell hat seine Besonderheiten. Die meisten der freien Sprachmodelle sind auf HuggingFace verfügbar.</p>



<h2 class="wp-block-heading">KI Sprachmodelle 2023</h2>



<figure class="wp-block-table"><table><thead><tr><th>Modell</th><th>Unternehmen</th><th>Link</th><th>Param (Mrd)</th><th>Seit</th></tr></thead><tbody><tr><td><a href="https://x.ai/model-card/">Grok-1</a></td><td>xAI</td><td><a href="https://x.ai/model-card/">Link</a></td><td>70?</td><td>Nov/2023</td></tr><tr><td><a href="https://github.com/01-ai/Yi" target="_blank" rel="noopener">Yi-34B</a></td><td>01-ai</td><td><a href="https://github.com/01-ai/Yi" target="_blank" rel="noopener">Link</a></td><td>34.4</td><td>Nov/2023</td></tr><tr><td><a href="https://jina.ai/news/jina-ai-launches-worlds-first-open-source-8k-text-embedding-rivaling-openai/" target="_blank" rel="noopener">jina-embeddings-v2</a></td><td>Jina AI</td><td><a href="https://jina.ai/news/jina-ai-launches-worlds-first-open-source-8k-text-embedding-rivaling-openai/" target="_blank" rel="noopener">Link</a></td><td>0.435</td><td>Okt/2023</td></tr><tr><td><a href="https://www.adept.ai/blog/fuyu-8b" target="_blank" rel="noopener">Fuyu</a></td><td>Adept</td><td><a href="https://www.adept.ai/blog/fuyu-8b" target="_blank" rel="noopener">Link</a></td><td>8</td><td>Okt/2023</td></tr><tr><td><a href="https://huggingface.co/HuggingFaceH4/zephyr-7b-alpha" target="_blank" rel="noopener">Zephyr</a></td><td>Hugging Face H4</td><td><a href="https://huggingface.co/HuggingFaceH4/zephyr-7b-alpha" target="_blank" rel="noopener">Link</a></td><td>7.3</td><td>Okt/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2310.07713" target="_blank" rel="noopener">NVIDIA</a></td><td>Retro 48B</td><td><a href="https://arxiv.org/abs/2310.07713" target="_blank" rel="noopener">Link</a></td><td>48</td><td>Okt/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2310.06830" target="_blank" rel="noopener">Lemur</a></td><td>XLANG Lab</td><td><a href="https://arxiv.org/abs/2310.06830" target="_blank" rel="noopener">Link</a></td><td>70</td><td>Okt/2023</td></tr><tr><td><a href="https://github.com/FreedomIntelligence/AceGPT/tree/main" target="_blank" rel="noopener">AceGPT</a></td><td>KAUST/Shenzhen</td><td><a href="https://github.com/FreedomIntelligence/AceGPT/tree/main" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Okt/2023</td></tr><tr><td><a href="https://robotics-transformer-x.github.io/paper.pdf" target="_blank" rel="noopener">RT-X</a></td><td>Google DeepMind</td><td><a href="https://robotics-transformer-x.github.io/paper.pdf" target="_blank" rel="noopener">Link</a></td><td>55</td><td>Okt/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2309.16609" target="_blank" rel="noopener">Qwen</a></td><td>Alibaba</td><td><a href="https://arxiv.org/abs/2309.16609" target="_blank" rel="noopener">Link</a></td><td>14</td><td>Sept/2023</td></tr><tr><td><a href="https://laion.ai/blog/leo-lm/" target="_blank" rel="noopener">LeoLM</a></td><td>Hessian AI/LAION</td><td><a href="https://laion.ai/blog/leo-lm/" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Sept/2023</td></tr><tr><td><a href="https://mistral.ai/news/announcing-mistral-7b/" target="_blank" rel="noopener">Mistral 7B</a></td><td>Mistral AI</td><td><a href="https://mistral.ai/news/announcing-mistral-7b/" target="_blank" rel="noopener">Link</a></td><td>7.3</td><td>Sept/2023</td></tr><tr><td><a href="https://cdn.baichuan-ai.com/paper/Baichuan2-technical-report.pdf" target="_blank" rel="noopener">Baichuan 2</a></td><td>Baichuan</td><td><a href="https://cdn.baichuan-ai.com/paper/Baichuan2-technical-report.pdf" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Sept/2023</td></tr><tr><td><a href="https://medium.com/thirdai-blog/introducing-the-worlds-first-generative-llm-pre-trained-only-on-cpus-meet-thirdai-s-bolt2-5b-10c0600e1af4" target="_blank" rel="noopener">BOLT2.5B</a></td><td>ThirdAI</td><td><a href="https://medium.com/thirdai-blog/introducing-the-worlds-first-generative-llm-pre-trained-only-on-cpus-meet-thirdai-s-bolt2-5b-10c0600e1af4" target="_blank" rel="noopener">Link</a></td><td>2.5</td><td>Sept/2023</td></tr><tr><td><a href="https://deci.ai/blog/decilm-15-times-faster-than-llama2-nas-generated-llm-with-variable-gqa/" target="_blank" rel="noopener">DeciLM</a></td><td>Deci</td><td><a href="https://deci.ai/blog/decilm-15-times-faster-than-llama2-nas-generated-llm-with-variable-gqa/" target="_blank" rel="noopener">Link</a></td><td>5.7</td><td>Sept/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2306.04640" target="_blank" rel="noopener">MoLM</a></td><td>IBM</td><td><a href="https://arxiv.org/abs/2306.04640" target="_blank" rel="noopener">Link</a></td><td>8</td><td>Sept/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2309.05519" target="_blank" rel="noopener">NExT-GPT</a></td><td>Singapore</td><td><a href="https://arxiv.org/abs/2309.05519" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Sept/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2309.05463" target="_blank" rel="noopener">phi-1.5</a></td><td>Microsoft</td><td><a href="https://arxiv.org/abs/2309.05463" target="_blank" rel="noopener">Link</a></td><td>1.3</td><td>Sept/2023</td></tr><tr><td><a href="https://github.com/jackcook/predictive-spy" target="_blank" rel="noopener">UniLM</a></td><td>Apple</td><td><a href="https://github.com/jackcook/predictive-spy" target="_blank" rel="noopener">Link</a></td><td>0.034</td><td>Sept/2023</td></tr><tr><td><a href="https://github.com/persimmon-ai-labs/adept-inference" target="_blank" rel="noopener">Persimmon-8B</a></td><td>Adept</td><td><a href="https://github.com/persimmon-ai-labs/adept-inference" target="_blank" rel="noopener">Link</a></td><td>8</td><td>Sept/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2309.03852" target="_blank" rel="noopener">FLM-101B</a></td><td>BAAI</td><td><a href="https://arxiv.org/abs/2309.03852" target="_blank" rel="noopener">Link</a></td><td>101</td><td>Sept/2023</td></tr><tr><td><a href="https://huggingface.co/blog/falcon-180b" target="_blank" rel="noopener">Falcon 180B</a></td><td>TII</td><td><a href="https://huggingface.co/blog/falcon-180b" target="_blank" rel="noopener">Link</a></td><td>180</td><td>Sept/2023</td></tr><tr><td><a href="https://github.com/jzhang38/TinyLlama" target="_blank" rel="noopener">TinyLlama</a></td><td>SUTD/Independent</td><td><a href="https://github.com/jzhang38/TinyLlama" target="_blank" rel="noopener">Link</a></td><td>1.1</td><td>Sept/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2308.16149" target="_blank" rel="noopener">Jais</a></td><td>Inception</td><td><a href="https://arxiv.org/abs/2308.16149" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Aug/2023</td></tr><tr><td><a href="https://ai.meta.com/research/publications/code-llama-open-foundation-models-for-code/" target="_blank" rel="noopener">Code Llama</a></td><td>Meta AI</td><td><a href="https://ai.meta.com/research/publications/code-llama-open-foundation-models-for-code/" target="_blank" rel="noopener">Link</a></td><td>34</td><td>Aug/2023</td></tr><tr><td><a href="https://huggingface.co/blog/idefics" target="_blank" rel="noopener">IDEFICS</a></td><td>Hugging Face</td><td><a href="https://huggingface.co/blog/idefics" target="_blank" rel="noopener">Link</a></td><td>80</td><td>Aug/2023</td></tr><tr><td><a href="https://huggingface.co/azale-ai/DukunLM-13B-V1.0-Uncensored" target="_blank" rel="noopener">DukunLM</a></td><td>AzaleAI</td><td><a href="https://huggingface.co/azale-ai/DukunLM-13B-V1.0-Uncensored" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Aug/2023</td></tr><tr><td><a href="https://github.com/nlpxucan/WizardLM" target="_blank" rel="noopener">WizardLM</a></td><td>Microsoft</td><td><a href="https://github.com/nlpxucan/WizardLM" target="_blank" rel="noopener">Link</a></td><td>70</td><td>Aug/2023</td></tr><tr><td><a href="https://platypus-llm.github.io/Platypus.pdf" target="_blank" rel="noopener">Platypus</a></td><td>Boston University</td><td><a href="https://platypus-llm.github.io/Platypus.pdf" target="_blank" rel="noopener">Link</a></td><td>70</td><td>Aug/2023</td></tr><tr><td><a href="https://stability.ai/blog/stability-ai-new-jplm-japanese-language-model-stablelm" target="_blank" rel="noopener">Japanese StableLM Alpha 7B</a></td><td>Stability AI</td><td><a href="https://stability.ai/blog/stability-ai-new-jplm-japanese-language-model-stablelm" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Aug/2023</td></tr><tr><td><a href="https://stability.ai/blog/stablecode-llm-generative-ai-coding" target="_blank" rel="noopener">StableCode</a></td><td>Stability AI</td><td><a href="https://stability.ai/blog/stablecode-llm-generative-ai-coding" target="_blank" rel="noopener">Link</a></td><td>3</td><td>Aug/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2307.15189" target="_blank" rel="noopener">Med-Flamingo</a></td><td>Stanford</td><td><a href="https://arxiv.org/abs/2307.15189" target="_blank" rel="noopener">Link</a></td><td>8.3</td><td>Jul/2023</td></tr><tr><td><a href="https://www.lighton.ai/blog/lighton-s-blog-4/introducing-alfred-40b-0723-38" target="_blank" rel="noopener">Alfred-40B-0723</a></td><td>LightOn</td><td><a href="https://www.lighton.ai/blog/lighton-s-blog-4/introducing-alfred-40b-0723-38" target="_blank" rel="noopener">Link</a></td><td>40</td><td>Jul/2023</td></tr><tr><td><a href="https://together.ai/blog/llama-2-7b-32k" target="_blank" rel="noopener">LLaMA-2-7B-32K</a></td><td>Together</td><td><a href="https://together.ai/blog/llama-2-7b-32k" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Jul/2023</td></tr><tr><td><a href="https://www.cerebras.net/blog/btlm-3b-8k-7b-performance-in-a-3-billion-parameter-model/" target="_blank" rel="noopener">BTLM-3B-8K</a></td><td>Cerebras</td><td><a href="https://www.cerebras.net/blog/btlm-3b-8k-7b-performance-in-a-3-billion-parameter-model/" target="_blank" rel="noopener">Link</a></td><td>3</td><td>Jul/2023</td></tr><tr><td><a href="https://stability.ai/blog/stable-beluga-large-instruction-fine-tuned-models" target="_blank" rel="noopener">Stable Beluga 2</a></td><td>Stability AI</td><td><a href="https://stability.ai/blog/stable-beluga-large-instruction-fine-tuned-models" target="_blank" rel="noopener">Link</a></td><td>70</td><td>Jul/2023</td></tr><tr><td><a href="https://stability.ai/blog/stable-beluga-large-instruction-fine-tuned-models" target="_blank" rel="noopener">Stable Beluga 1</a></td><td>Stability AI</td><td><a href="https://stability.ai/blog/stable-beluga-large-instruction-fine-tuned-models" target="_blank" rel="noopener">Link</a></td><td>65</td><td>Jul/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2307.10802" target="_blank" rel="noopener">Meta-Transformer</a></td><td>Shanghai AI Laboratory/CUHK</td><td><a href="https://arxiv.org/abs/2307.10802" target="_blank" rel="noopener">Link</a></td><td>2</td><td>Jul/2023</td></tr><tr><td><a href="https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/" target="_blank" rel="noopener">Llama 2</a></td><td>Meta AI</td><td><a href="https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/" target="_blank" rel="noopener">Link</a></td><td>70</td><td>Jul/2023</td></tr><tr><td><a href="https://www-files.anthropic.com/production/images/Model-Card-Claude-2.pdf" target="_blank" rel="noopener">Claude 2</a></td><td>Anthropic</td><td><a href="https://www-files.anthropic.com/production/images/Model-Card-Claude-2.pdf" target="_blank" rel="noopener">Link</a></td><td>130</td><td>Jul/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2307.03170" target="_blank" rel="noopener">LongLLaMA</a></td><td>IDEAS/DeepMind</td><td><a href="https://arxiv.org/abs/2307.03170" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Jul/2023</td></tr><tr><td><a href="https://blog.salesforceairesearch.com/xgen/" target="_blank" rel="noopener">XGen</a></td><td>Salesforce</td><td><a href="https://blog.salesforceairesearch.com/xgen/" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Jul/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2306.14824" target="_blank" rel="noopener">Kosmos-2</a></td><td>Microsoft</td><td><a href="https://arxiv.org/abs/2306.14824" target="_blank" rel="noopener">Link</a></td><td>1.6</td><td>Jun/2023</td></tr><tr><td><a href="https://inflection.ai/assets/Inflection-1_0622.pdf" target="_blank" rel="noopener">Inflection-1</a></td><td>Inflection AI</td><td><a href="https://inflection.ai/assets/Inflection-1_0622.pdf" target="_blank" rel="noopener">Link</a></td><td>120</td><td>Jun/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2306.04707" target="_blank" rel="noopener">BlenderBot 3x</a></td><td>Meta AI</td><td><a href="https://arxiv.org/abs/2306.04707" target="_blank" rel="noopener">Link</a></td><td>175</td><td>Jun/2023</td></tr><tr><td><a href="https://github.com/yxuansu/PandaGPT/blob/main/PandaGPT.pdf" target="_blank" rel="noopener">PandaGPT</a></td><td>Cambridge/Tencent</td><td><a href="https://github.com/yxuansu/PandaGPT/blob/main/PandaGPT.pdf" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Mai/2023</td></tr><tr><td><a href="https://www.tii.ae/news/uaes-technology-innovation-institute-launches-open-source-falcon-40b-large-language-model" target="_blank" rel="noopener">Falcon</a></td><td>TII</td><td><a href="https://www.tii.ae/news/uaes-technology-innovation-institute-launches-open-source-falcon-40b-large-language-model" target="_blank" rel="noopener">Link</a></td><td>40</td><td>Mai/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2305.14314" target="_blank" rel="noopener">Guanaco</a></td><td>UW</td><td><a href="https://arxiv.org/abs/2305.14314" target="_blank" rel="noopener">Link</a></td><td>65</td><td>Mai/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2305.07922" target="_blank" rel="noopener">CodeT5+</a></td><td>Salesforce</td><td><a href="https://arxiv.org/abs/2305.07922" target="_blank" rel="noopener">Link</a></td><td>16</td><td>Mai/2023</td></tr><tr><td><a href="https://ai.google/static/documents/palm2techreport.pdf" target="_blank" rel="noopener">PaLM 2</a></td><td>Google</td><td><a href="https://ai.google/static/documents/palm2techreport.pdf" target="_blank" rel="noopener">Link</a></td><td>340</td><td>Mai/2023</td></tr><tr><td><a href="https://drive.google.com/file/d/1cN-b9GnWtHzQRoE7M7gAEyivY0kl4BYs/view" target="_blank" rel="noopener">StarCoder</a></td><td>HF/ServiceNow</td><td><a href="https://drive.google.com/file/d/1cN-b9GnWtHzQRoE7M7gAEyivY0kl4BYs/view" target="_blank" rel="noopener">Link</a></td><td>15.5</td><td>Mai/2023</td></tr><tr><td><a href="https://twitter.com/NaveenGRao/status/1654496162492084227" target="_blank" rel="noopener">MPT</a></td><td>MosaicML</td><td><a href="https://twitter.com/NaveenGRao/status/1654496162492084227" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Mai/2023</td></tr><tr><td><a href="https://www-cnbc-com.cdn.ampproject.org/c/s/www.cnbc.com/amp/2022/03/08/reid-hoffman-has-set-up-a-new-ai-company-with-deepminds-co-founder.html" target="_blank" rel="noopener">Pi</a></td><td>Inflection AI</td><td><a href="https://www-cnbc-com.cdn.ampproject.org/c/s/www.cnbc.com/amp/2022/03/08/reid-hoffman-has-set-up-a-new-ai-company-with-deepminds-co-founder.html" target="_blank" rel="noopener">Link</a></td><td>60?</td><td>Mai/2023</td></tr><tr><td><a href="https://huggingface.co/nvidia/GPT-2B-001" target="_blank" rel="noopener">GPT-2B-001</a></td><td>NVIDIA</td><td><a href="https://huggingface.co/nvidia/GPT-2B-001" target="_blank" rel="noopener">Link</a></td><td>2</td><td>Mai/2023</td></tr><tr><td><a href="https://www.techrepublic.com/article/amazon-bedrock-titan-cloud-artificial-intelligence/" target="_blank" rel="noopener">Titan</a></td><td>Amazon</td><td><a href="https://www.techrepublic.com/article/amazon-bedrock-titan-cloud-artificial-intelligence/" target="_blank" rel="noopener">Link</a></td><td>N/A</td><td>Apr/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2304.12244" target="_blank" rel="noopener">WizardLM</a></td><td>Microsoft</td><td><a href="https://arxiv.org/abs/2304.12244" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Apr/2023</td></tr><tr><td><a href="https://twitter.com/jefrankle/status/1649060478910357504" target="_blank" rel="noopener">MPT</a></td><td>MosaicML</td><td><a href="https://twitter.com/jefrankle/status/1649060478910357504" target="_blank" rel="noopener">Link</a></td><td>1.3</td><td>Apr/2023</td></tr><tr><td><a href="https://github.com/stability-AI/stableLM/" target="_blank" rel="noopener">StableLM</a></td><td>Stability AI</td><td><a href="https://github.com/stability-AI/stableLM/" target="_blank" rel="noopener">Link</a></td><td>65</td><td>Apr/2023</td></tr><tr><td><a href="https://www.databricks.com/blog/2023/04/12/dolly-first-open-commercially-viable-instruction-tuned-llm" target="_blank" rel="noopener">Dolly 2.0</a></td><td>Databricks</td><td><a href="https://www.databricks.com/blog/2023/04/12/dolly-first-open-commercially-viable-instruction-tuned-llm" target="_blank" rel="noopener">Link</a></td><td>12</td><td>Apr/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2304.01373" target="_blank" rel="noopener">Pythia</a></td><td>EleutherAI</td><td><a href="https://arxiv.org/abs/2304.01373" target="_blank" rel="noopener">Link</a></td><td>12</td><td>Apr/2023</td></tr><tr><td><a href="https://bair.berkeley.edu/blog/2023/04/03/koala/" target="_blank" rel="noopener">Koala-13B</a></td><td>Berkeley</td><td><a href="https://bair.berkeley.edu/blog/2023/04/03/koala/" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Apr/2023</td></tr><tr><td><a href="https://laion.ai/blog/open-flamingo/" target="_blank" rel="noopener">OpenFlamingo-9B</a></td><td>LAION</td><td><a href="https://laion.ai/blog/open-flamingo/" target="_blank" rel="noopener">Link</a></td><td>8.3</td><td>Mrz/2023</td></tr><tr><td><a href="https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf" target="_blank" rel="noopener">GPT4All-LoRa</a></td><td>Nomic</td><td><a href="https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Mrz/2023</td></tr><tr><td><a href="https://www.cerebras.net/blog/cerebras-gpt-a-family-of-open-compute-efficient-large-language-models/" target="_blank" rel="noopener">Cerebras-GPT</a></td><td>Cerebras</td><td><a href="https://www.cerebras.net/blog/cerebras-gpt-a-family-of-open-compute-efficient-large-language-models/" target="_blank" rel="noopener">Link</a></td><td>13</td><td>Mrz/2023</td></tr><tr><td><a href="https://cdn.openai.com/papers/gpt-4.pdf" target="_blank" rel="noopener">GPT-4</a></td><td>OpenAI</td><td><a href="https://cdn.openai.com/papers/gpt-4.pdf" target="_blank" rel="noopener">Link</a></td><td>1800</td><td>Mrz/2023</td></tr><tr><td><a href="https://github.com/tatsu-lab/stanford_alpaca" target="_blank" rel="noopener">Alpaca</a></td><td>Stanford</td><td><a href="https://github.com/tatsu-lab/stanford_alpaca" target="_blank" rel="noopener">Link</a></td><td>7</td><td>Mrz/2023</td></tr><tr><td><a href="https://www.ai21.com/blog/introducing-j2" target="_blank" rel="noopener">Jurassic-2</a></td><td>AI21</td><td><a href="https://www.ai21.com/blog/introducing-j2" target="_blank" rel="noopener">Link</a></td><td>178</td><td>Mrz/2023</td></tr><tr><td><a href="https://github.com/togethercomputer/OpenChatKit" target="_blank" rel="noopener">GPT-NeoX-Chat-Base-20B</a></td><td>Together</td><td><a href="https://github.com/togethercomputer/OpenChatKit" target="_blank" rel="noopener">Link</a></td><td>20</td><td>Mrz/2023</td></tr><tr><td><a href="https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/" target="_blank" rel="noopener">LLaMA-65B</a></td><td>Meta AI</td><td><a href="https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/" target="_blank" rel="noopener">Link</a></td><td>65</td><td>Feb/2023</td></tr><tr><td><a href="https://txsun1997.github.io/blogs/moss.html" target="_blank" rel="noopener">MOSS</a></td><td>Fudan University</td><td><a href="https://txsun1997.github.io/blogs/moss.html" target="_blank" rel="noopener">Link</a></td><td>16</td><td>Feb/2023</td></tr><tr><td><a href="https://writer.com/blog/palmyra/" target="_blank" rel="noopener">Palmyra</a></td><td>Writer</td><td><a href="https://writer.com/blog/palmyra/" target="_blank" rel="noopener">Link</a></td><td>20</td><td>Feb/2023</td></tr><tr><td><a href="https://www.aleph-alpha.com/pdf/2023_02_AA_Benchmarks_doc.pdf" target="_blank" rel="noopener">Luminous Supreme Control</a></td><td>Aleph Alpha</td><td><a href="https://www.aleph-alpha.com/pdf/2023_02_AA_Benchmarks_doc.pdf" target="_blank" rel="noopener">Link</a></td><td>70</td><td>Feb/2023</td></tr><tr><td><a href="https://arxiv.org/abs/2302.00923" target="_blank" rel="noopener">Multimodal-CoT</a></td><td>Amazon</td><td><a href="https://arxiv.org/abs/2302.00923" target="_blank" rel="noopener">Link</a></td><td>0.738</td><td>Feb/2023</td></tr></tbody></table><figcaption class="wp-element-caption">Chat Sprachmodelle &#8211; 2023</figcaption></figure>



<h2 class="wp-block-heading">Fazit</h2>



<p>Die Fortschritte in diesem Bereich sind nicht nur beeindruckend, sondern auch richtungsweisend für die Zukunft der Mensch-Maschine-Kommunikation. Mit jedem Modell, das neue Maßstäbe in Bezug auf Verständnis, Kontextualisierung und Sprachgenerierung setzt, werden die Grenzen des Möglichen weiter hinausgeschoben. </p>



<p>Diese Entwicklungen lassen uns erahnen, welche Rolle KI in unserem Alltag spielen könnte – von verbesserten persönlichen Assistenten über fortgeschrittene Analysetools bis hin zu empathischen, interaktiven Schnittstellen, die uns in Bildung, Arbeit und Spiel unterstützen. Während wir die Vorteile dieser Technologie feiern, dürfen wir jedoch die damit verbundenen ethischen und gesellschaftlichen Herausforderungen nicht aus den Augen verlieren. </p>



<p>Es bleibt eine spannende Zeit, Zeuge dieser revolutionären Ära zu sein, in der wir nicht nur Beobachter, sondern auch Gestalter einer neuen Kommunikationslandschaft sind.</p>



<p></p>



<p class="has-medium-font-size"><strong>Quellen</strong></p>



<p></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link wp-element-button" href="https://lifearchitect.ai/models/" target="_blank" rel="noopener">AI Models</a></div>



<div class="wp-block-button"><a class="wp-block-button__link wp-element-button" href="https://www.promptingguide.ai/models/collection" target="_blank" rel="noopener">Prompting Guide</a></div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.dannygerst.de/liste-der-chatbot-sprachmodellen-2023/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>OpenAI DevDay &#8211; ChatGPT Update 2023</title>
		<link>https://www.dannygerst.de/openai-devday-chatgpt-update-2023/</link>
					<comments>https://www.dannygerst.de/openai-devday-chatgpt-update-2023/#respond</comments>
		
		<dc:creator><![CDATA[Danny Gerst]]></dc:creator>
		<pubDate>Tue, 07 Nov 2023 16:32:49 +0000</pubDate>
				<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[DevDay]]></category>
		<category><![CDATA[GPT4]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Devday]]></category>
		<category><![CDATA[GPT-4]]></category>
		<guid isPermaLink="false">https://www.dannygerst.de/?p=1221</guid>

					<description><![CDATA[Willkommen in der Welt von morgen – heute schon erlebbar! Der OpenAI DevDay 2023 hat mit der Enthüllung des ChatGPT Updates eine Zukunft präsentiert, die nicht nur die Grenzen der künstlichen Intelligenz (KI) neu definiert, sondern auch die Art und Weise, wie wir mit Technologie interagieren, revolutioniert.]]></description>
										<content:encoded><![CDATA[
<p>Von tiefgreifenden Verbesserungen in der Effizienz und Benutzerfreundlichkeit bis hin zu bahnbrechenden Fortschritten in der multimodalen KI-Kommunikation – diese Aktualisierungen sind ein Meilenstein in der Annäherung an das Konzept einer Allgemeinen Künstlichen Intelligenz (AGI). In dieser Einleitung nehmen wir Sie mit auf eine Reise durch die aufregenden Neuerungen, die OpenAI mit dem neuesten Update von ChatGPT vorgestellt hat. Tauchen Sie ein in eine Welt, in der KI nicht nur ein Werkzeug ist, sondern ein kollaborativer Partner, der das menschliche Potenzial entfesseln hilft.</p>



<h2 class="wp-block-heading">Überblick über den OpenAI DevDay</h2>



<p>Das OpenAI DevDay Ereignis war ein bedeutendes Event, bei dem eine Reihe von Updates und neuen Entwicklungen vorgestellt wurden. Zu den Highlights gehörten die Einführung von GPT-4 Turbo, einem effizienteren Modell mit einem erweiterten Kontextfenster von 128.000 Zeichen, das kostengünstiger ist als seine Vorgänger. Entwickler können nun dank neuer API-Funktionen komplexere Funktionen nutzen und konsistente JSON-Antworten erhalten. Ein neues Feature ermöglicht die Integration eines KI-gestützten Assistenten in Webseiten, der Aufgaben wie Code-Interpretation, Dokumentenabruf und API-Aufrufe übernehmen kann. OpenAI präsentierte auch die Vision API für DALL-E 3 und neue Text-to-Speech-Optionen, was den Vorstoß in den multimodalen Bereich markiert. Zudem wurden maßgeschneiderte KI-Modelle für große Organisationen und eine Reduzierung der Preise für verschiedene Modelle angekündigt, was KI-Technologien zugänglicher macht.</p>



<h2 class="wp-block-heading">Vorstellung von GPT-4 Turbo</h2>



<h3 class="wp-block-heading">Was ist neu bei GPT-4 Turbo?</h3>



<p>Zu den neuen Funktionen von GPT-4 Turbo zählt die erhöhte Effizienz, die es ermöglicht, komplexe Anfragen mit einem erweiterten Kontext zu verstehen und zu beantworten. Dieses Modell ist eine verbesserte Version des vorherigen GPT-4, das bereits eine beeindruckende Leistungsfähigkeit bot, aber mit GPT-4 Turbo hat OpenAI die Latenzzeiten verringert und die Handhabung großer Datenmengen optimiert. Dadurch können Entwickler leistungsfähige, KI-gestützte Anwendungen kostengünstiger als zuvor erstellen. Insbesondere die Erweiterung des Kontextfensters ist ein großer Schritt in Richtung komplexerer und natürlicher Dialoge mit KI-Modellen.</p>



<h3 class="wp-block-heading">Leistung und Wirtschaftlichkeit</h3>



<p>GPT-4 Turbo ist eine Weiterentwicklung des GPT-4 Modells, das speziell für Entwickler eine wirtschaftlichere Nutzung ermöglicht. GPT-4 Turbo ist in der Lage, mehr als 300 Seiten Text in einem einzigen Prompt zu verarbeiten und hat ein Wissen über weltweite Ereignisse bis April 2023. OpenAI hat die Leistung optimiert und bietet GPT-4 Turbo zu einem 3-fach günstigeren Preis für Eingabetoken und einem 2-fach günstigeren Preis für Ausgabetoken im Vergleich zu GPT-4 an. GPT-4 Turbo ist derzeit als Vorschauversion für zahlende Entwickler verfügbar, indem sie <code>gpt-4-1106-preview</code> in der API verwenden, und OpenAI plant, das stabile, produktionsreife Modell in den kommenden Wochen zu veröffentlichen.</p>



<h3 class="wp-block-heading">Verfügbarkeit</h3>



<p>penAI hat die Verfügbarkeit von GPT-4 Turbo für Entwickler durch die Bereitstellung einer Vorschauversion erweitert. Entwickler, die für ihre Dienste zahlen, können diese fortschrittlichere Version nutzen, indem sie <code>gpt-4-1106-preview</code> in der API angeben. Die Veröffentlichung des stabilen, produktionsbereiten Modells ist in den kommenden Wochen geplant. Diese Schritte zielen darauf ab, die Anwendung von KI in verschiedenen Geschäftsbereichen zu verbreiten und Entwicklern zu ermöglichen, schneller innovative Anwendungen zu kreieren.</p>



<h2 class="wp-block-heading">KI-gestützte Assistenten</h2>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="472" src="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/11/grafik-9-1024x472.png" alt="KI gestützte Assistenten nun Bestandteil von OpenAI - OpenAI DevDay 2023" class="wp-image-1225" srcset="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/11/grafik-9-980x452.png 980w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/11/grafik-9-480x221.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1024px, 100vw" /><figcaption class="wp-element-caption">KI gestützte Assistenten nun Bestandteil von OpenAI &#8211; OpenAI DevDay 2023</figcaption></figure>



<p>Die Assistants API ist eine neu eingeführte Schnittstelle von OpenAI, die Entwicklern ermöglicht, spezialisierte KI-Assistenten zu erstellen. Diese Assistenten können spezifische Anweisungen befolgen, zusätzliches Wissen nutzen und Modelle sowie Werkzeuge aufrufen, um Aufgaben auszuführen. Zu den Kernfunktionen gehören der Code Interpreter, der Python-Code in einer abgesicherten Umgebung ausführen kann, Retrieval, das externe Datenquellen einbezieht, und Funktionen, die es erlauben, benutzerdefinierte Funktionen aufzurufen. Die Assistants API ermöglicht es, langanhaltende Konversationen zu führen, indem die Zustandsverwaltung der Gesprächsfäden an OpenAI übergeben wird. Sie ist ab sofort für alle Entwickler in der Beta-Version verfügbar und kann ohne Programmierkenntnisse im Assistants Playground getestet werden. Data und Dateien, die über die API übermittelt werden, fließen nicht in das Training der Modelle ein und können von den Entwicklern nach Belieben gelöscht werden.</p>



<h2 class="wp-block-heading">Erweiterte Multimodale Fähigkeiten</h2>



<h3 class="wp-block-heading">GPT-4 Turbo mit Vision</h3>



<p>GPT-4 Turbo kann jetzt Bilder als Eingaben verarbeiten, um Funktionen wie das Erstellen von Bildunterschriften, die detaillierte Analyse von Bildern und das Lesen von Dokumenten mit Abbildungen zu ermöglichen. BeMyEyes nutzt diese Technologie bereits, um Menschen mit Sehbehinderungen im Alltag zu unterstützen.</p>



<h3 class="wp-block-heading">DALL-E 3 Integration</h3>



<p>Entwickler können DALL-E 3 in ihre Anwendungen integrieren, um direkt Bilder zu generieren. Unternehmen wie Snap, Coca-Cola und Shutterstock verwenden es bereits für die Bildgenerierung in Kundendiensten und Kampagnen.</p>



<h3 class="wp-block-heading">Text-to-Speech-Optionen</h3>



<p>Die Text-to-Speech-API ermöglicht es, menschenähnliche Sprache aus Text zu generieren. Es gibt sechs vordefinierte Stimmen und zwei Modellvarianten, tts-1 für Echtzeitanwendungen und tts-1-hd für höchste Qualität.</p>



<h2 class="wp-block-heading">Modellanpassung und -spezialisierung</h2>



<p>OpenAI führt ein experimentelles Zugangsprogramm für die Feinabstimmung von GPT-4 ein. Erste Ergebnisse zeigen, dass für signifikante Verbesserungen gegenüber dem Basis-GPT-4-Modell mehr Arbeit erforderlich ist als bei der Feinabstimmung von GPT-3.5. Entwickler, die aktiv GPT-3.5-Feinabstimmung nutzen, erhalten die Möglichkeit, sich für das GPT-4-Programm über ihre Feinabstimmungskonsole zu bewerben, sobald Qualität und Sicherheit dies zulassen.</p>



<h3 class="wp-block-heading">Das eigene GPT Modell</h3>



<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="397" src="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/11/grafik-10-1024x397.png" alt="Das eigene KI Modell für jeden Einsatzzweck" class="wp-image-1227" srcset="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/11/grafik-10-980x380.png 980w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/11/grafik-10-480x186.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1024px, 100vw" /><figcaption class="wp-element-caption">Das eigene KI Modell für jeden Einsatzzweck (Quelle: https://openai.com/blog/introducing-gpts)</figcaption></figure>



<p>OpenAI führt benutzerdefinierte Versionen von ChatGPT ein, die als GPTs bezeichnet werden und für einen bestimmten Zweck erstellt werden können. Diese personalisierten GPTs können für den täglichen Gebrauch, für spezifische Aufgaben oder zur Freizeitgestaltung angepasst werden und stehen dann der Community zur Verfügung.</p>



<h4 class="wp-block-heading">GPT-Erstellung ohne Codierung</h4>



<p>Jeder kann ohne Programmierkenntnisse ein GPT erstellen, sei es für den persönlichen Gebrauch, für den internen Gebrauch eines Unternehmens oder zum Teilen mit anderen. Das Erstellen eines GPT ist so einfach wie das Starten eines Gesprächs mit spezifischen Anweisungen und Wissensbasen.</p>



<h4 class="wp-block-heading">GPT Store</h4>



<p>OpenAI plant die Einführung eines GPT Stores, in dem Nutzer ihre GPT-Kreationen veröffentlichen können. Dieser Store soll eine Plattform für geprüfte Erbauer bieten, um ihre GPTs suchbar zu machen und gegebenenfalls in Ranglisten aufsteigen zu lassen.</p>



<h4 class="wp-block-heading">Datenschutz und Sicherheit</h4>



<p>Die Privatsphäre und Sicherheit der Nutzerdaten hat Priorität. Chats mit GPTs werden nicht mit den Erstellern geteilt und die Nutzer haben die Kontrolle darüber, ob Daten an Drittanbieter-APIs gesendet werden dürfen. Zudem können Ersteller entscheiden, ob Nutzerchats mit ihrem GPT zur Verbesserung und zum Training der Modelle verwendet werden dürfen.</p>



<h4 class="wp-block-heading">Anbindung an die reale Welt</h4>



<p>Entwickler können GPTs erweitern, indem sie benutzerdefinierte Aktionen durch das Einbinden von einer oder mehreren APIs definieren. Diese Aktionen ermöglichen es GPTs, externe Daten einzubinden oder mit der realen Welt zu interagieren, wie beispielsweise das Anschließen an Datenbanken oder E-Mail-Systeme.</p>



<h3 class="wp-block-heading">Individuelle Modelle</h3>



<p>Für Organisationen, die eine spezifischere Anpassung benötigen, als es die Feinabstimmung bieten kann, startet OpenAI ein Programm für individuelle Modelle. Ausgewählte Organisationen können mit OpenAI-Forschern zusammenarbeiten, um GPT-4-Modelle speziell für ihre Domäne zu trainieren. Dies umfasst Anpassungen des gesamten Trainingsprozesses und exklusiven Zugang zu ihren maßgeschneiderten Modellen. Die Daten zur Trainierung bleiben privat und werden ausschließlich für das individuelle Modell genutzt. Das Programm ist anfangs sehr begrenzt und kostenintensiv. Interessierte Organisationen können sich bewerben.</p>



<h2 class="wp-block-heading">Fortschritte bei der Befehlsausführung</h2>



<h3 class="wp-block-heading">Aufruf von Funktionen</h3>



<p>Function Calling ermöglicht es Entwicklern, Funktionen ihrer Anwendungen oder externer APIs für Modelle zu beschreiben. Das Modell kann dann intelligenterweise entscheiden, ein JSON-Objekt mit Argumenten für den Aufruf dieser Funktionen auszugeben. Neu ist nun die Möglichkeit, mehrere Funktionen in einer einzigen Nachricht aufzurufen. Benutzer können eine Nachricht senden, die mehrere Aktionen anfordert, wie zum Beispiel &#8222;Öffne das Autofenster und schalte die Klimaanlage aus&#8220;, was zuvor mehrere Interaktionen mit dem Modell erforderte. Zusätzlich wurde die Genauigkeit des Function Callings verbessert: GPT-4 Turbo wählt wahrscheinlicher die richtigen Funktionsparameter aus.</p>



<h3 class="wp-block-heading">Verbesserte Anweisungsbefolgung und JSON-Modus</h3>



<p>GPT-4 Turbo zeigt eine bessere Leistung als frühere Modelle bei Aufgaben, die eine sorgfältige Befolgung von Anweisungen erfordern, wie zum Beispiel das Generieren spezifischer Formate (z.B. &#8222;antworten Sie immer im XML-Format&#8220;). Außerdem unterstützt es den neuen JSON-Modus, der sicherstellt, dass das Modell mit einem gültigen JSON antwortet. Der neue API-Parameter <code>response_format</code> ermöglicht es dem Modell, seine Ausgabe zu beschränken, um ein syntaktisch korrektes JSON-Objekt zu generieren. Der JSON-Modus ist besonders nützlich für Entwickler, die JSON in der Chat Completions API außerhalb des Function Callings generieren.</p>



<h3 class="wp-block-heading">Reproduzierbare Ausgaben und Log-Wahrscheinlichkeiten</h3>



<p>Der neue <code>seed</code>-Parameter ermöglicht reproduzierbare Ausgaben, indem das Modell konsistente Vervollständigungen liefert. Diese Beta-Funktion ist nützlich für Anwendungsfälle wie das erneute Abspielen von Anfragen zum Debugging, das Schreiben umfassenderer Unit-Tests und allgemein für eine höhere Kontrolle über das Verhalten des Modells. OpenAI hat diese Funktion intern für eigene Unit-Tests genutzt und als sehr wertvoll empfunden. Es wird erwartet, dass Entwickler diese Funktion auf innovative Weise nutzen werden.</p>



<p>In den nächsten Wochen wird auch eine Funktion eingeführt, die die Log-Wahrscheinlichkeiten für die wahrscheinlichsten Ausgabetoken, die von GPT-4 Turbo und GPT-3.5 Turbo generiert werden, zurückgibt. Dies wird nützlich sein für das Erstellen von Funktionen wie Autocomplete in einer Sucherfahrung.</p>



<h2 class="wp-block-heading">Urheberrechtsschutz durch OpenAI</h2>



<p>OpenAI legt großen Wert auf den Schutz seiner Kunden durch integrierte Urheberrechtsicherungen in seinen Systemen. Mit der Einführung des Copyright Shield geht OpenAI nun einen Schritt weiter: Das Unternehmen verpflichtet sich, seine Kunden zu verteidigen und anfallende Kosten zu übernehmen, falls diese mit rechtlichen Ansprüchen wegen Urheberrechtsverletzungen konfrontiert werden. Dies gilt für allgemein verfügbare Funktionen des ChatGPT Enterprise und der Entwicklerplattform. OpenAI zeigt damit sein Engagement für die rechtliche Absicherung der Nutzer seiner KI-Technologien.</p>



<h2 class="wp-block-heading">Preisreduzierungen und höhere Nutzungslimits</h2>



<p>OpenAI hat die Preise für verschiedene Angebote auf seiner Plattform gesenkt, um die Ersparnisse an Entwickler weiterzugeben. Die Preissenkungen sind wie folgt, jeweils pro 1.000 Tokens ausgedrückt:</p>



<ul>
<li>GPT-4 Turbo Eingabe-Token sind jetzt dreimal günstiger als bei GPT-4, mit einem Preis von $0.01, und Ausgabe-Token sind zweimal günstiger, zu einem Preis von $0.03.</li>



<li>GPT-3.5 Turbo Eingabe-Token sind dreimal günstiger als beim vorherigen 16K-Modell, mit einem Preis von $0.001, und Ausgabe-Token sind zweimal günstiger, zu einem Preis von $0.002. Entwickler, die bisher GPT-3.5 Turbo 4K genutzt haben, profitieren von einer 33%igen Reduktion bei Eingabe-Token zu einem Preis von $0.001. Diese niedrigeren Preise gelten nur für das heute eingeführte neue GPT-3.5 Turbo.</li>



<li>Feinabgestimmte GPT-3.5 Turbo 4K-Modell Eingabe-Token sind viermal günstiger, zu einem Preis von $0.003, und Ausgabe-Token sind 2,7 mal günstiger, zu einem Preis von $0.006. Feinabstimmung unterstützt jetzt auch einen 16K-Kontext zum gleichen Preis wie 4K mit dem neuen GPT-3.5 Turbo-Modell. Diese neuen Preise gelten auch für feinabgestimmte gpt-3.5-turbo-0613-Modelle.</li>
</ul>



<p>Die Preisänderungen werden in einer Gegenüberstellung der alten und neuen Modelle zusammengefasst, um die Unterschiede hervorzuheben.</p>



<h3 class="wp-block-heading">Erhöhung der Nutzungslimits</h3>



<p>Um die Skalierung von Anwendungen zu unterstützen, verdoppelt OpenAI das Token-pro-Minute-Limit für alle zahlenden GPT-4-Kunden. Die neuen Nutzungslimits können auf der entsprechenden Seite des Benutzerkontos eingesehen werden. Außerdem wurden die Nutzungsebenen veröffentlicht, die automatische Limitsteigerungen bestimmen, sodass Entwickler wissen, was sie hinsichtlich der Skalierung ihrer Nutzungslimits erwarten können. Anfragen zur Erhöhung der Nutzungslimits können nun über die Kontoeinstellungen gestellt werden.</p>



<h2 class="wp-block-heading">Fazit</h2>



<p>Die Fortschritte in der künstlichen Intelligenz, insbesondere mit der Einführung von GPT-4, kündigen ein neues Zeitalter an, in dem halbautonome Agenten zunehmend eine Rolle in unserem Alltag spielen werden. Die &#8222;dünnen&#8220; Wrapper, die einst als Bindeglied zwischen uns und den KI-Modellen fungierten, werden durch direktere und intuitivere Interaktionen mit den Modellen selbst ersetzt. Diese Entwicklung ermöglicht es den Modellen, selbstständig zu handeln und aus Interaktionen zu lernen, wodurch sie effizienter und adaptiver werden.</p>



<p>OpenAI hat auf dem Developer Day eine Vision für die Zukunft präsentiert, in der KI-Modelle nicht nur als leistungsfähige Werkzeuge für Entwickler dienen, sondern auch als Agenten, die neben menschlichen Anwendern stehen. Diese Agenten sollen mit fortschrittlichen Funktionen wie verbesserter Speicherung, Autonomie und effizienterer Werkzeugnutzung ausgestattet sein, was sie in die Lage versetzt, eigenständige Entscheidungen zu treffen und komplexe Aufgaben mit weniger menschlichem Eingriff zu bewältigen.</p>



<p>Für Unternehmen bedeutet dies, dass sie die KI tief in ihre Produkte integrieren müssen, um wettbewerbsfähig zu bleiben. Diejenigen, die jetzt in ChatGPT investieren und ihre Dienstleistungen darum aufbauen, werden in der neuen Ära führend sein. Für Nutzer bedeutet dies eine erhebliche Zeit- und Kostenersparnis, da anstelle vieler spezialisierter Werkzeuge zunehmend auf eine einzige, leistungsstarke KI-Plattform zurückgegriffen werden kann. Die Zukunft verspricht eine Transformation unserer Arbeitsweisen und eine Neuausrichtung unserer Vorstellungen von Effizienz und Produktivität.</p>



<p>Die Roadmap von OpenAI deutet darauf hin, dass wir auf eine Welt hinarbeiten, in der Agenten in der Lage sein werden, autonom zu planen und zu handeln, und das Konzept der Autonomie subtil umschreiben, ohne das Wort direkt zu verwenden. Die Schaffung von AGI wird nicht nur durch die Entwicklung des Kernmodells, sondern auch durch die Erweiterung der Modelle mit zusätzlichen Werkzeugen und Strukturen erreicht.</p>



<p>In dieser sich rasch entwickelnden Technologielandschaft ist es an der Zeit, dass wir nicht nur Zeuge der KI-Revolution werden, sondern aktiv an ihrer Gestaltung teilnehmen. Die Richtung ist klar: Es geht hin zu einer Welt, in der KI-gesteuerte Agenten und Systeme, die autonom agieren können, eine zentrale Rolle spielen werden. Dieser Wandel wird nicht nur unsere Arbeitsweise, sondern auch unsere Wirtschaft und Gesellschaft grundlegend verändern.</p>



<p></p>



<p class="has-medium-font-size"><strong>Quellen</strong></p>



<p></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link wp-element-button" href="https://openai.com/blog/new-models-and-developer-products-announced-at-devday" target="_blank" rel="noopener">DevDay Blog</a></div>



<div class="wp-block-button"><a class="wp-block-button__link wp-element-button" href="https://openai.com/blog/introducing-gpts" target="_blank" rel="noopener">Einführung der GPTs</a></div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.dannygerst.de/openai-devday-chatgpt-update-2023/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Was ist ChatGPT?</title>
		<link>https://www.dannygerst.de/was-ist-chatgpt/</link>
					<comments>https://www.dannygerst.de/was-ist-chatgpt/#respond</comments>
		
		<dc:creator><![CDATA[Danny Gerst]]></dc:creator>
		<pubDate>Fri, 13 Oct 2023 18:22:32 +0000</pubDate>
				<category><![CDATA[GPT4]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<guid isPermaLink="false">https://www.dannygerst.de/?p=765</guid>

					<description><![CDATA[Ein herausragendes Merkmal von ChatGPT ist seine Zugänglichkeit. Während frühere technologische Durchbrüche oft nur Experten zugänglich waren, öffnet ChatGPT die Tür zur KI für jedermann. Mehr erfahren Sie in diesem Artikel.]]></description>
										<content:encoded><![CDATA[
<p>Die Künstliche Intelligenz (KI) ist kein neues Phänomen der aktuellen Zeit; sie beeinflusst schon seit den 1970er Jahren technologische Entwicklungen. Doch mit Plattformen wie ChatGPT hat die KI-Evolution ein neues Tempo erreicht. In den folgenden Abschnitten werde ich die Gründe für diese beschleunigte Entwicklung aufzeigen.</p>



<p>ChatGPT, eine Kreation von OpenAI, repräsentiert einen bedeutenden Fortschritt in der Welt der künstlichen Intelligenz. Es handelt sich um einen intelligenten Chatbot, der auf dem Generative Pre-trained Transformer-Modell basiert. Dieses Modell ist das Ergebnis jahrelanger Forschung und Entwicklung im Bereich der KI und maschinelles Lernen.</p>



<p>Mit ChatGPT können Benutzer durch einfache Texteingabe Fragen stellen oder Anweisungen geben und erhalten im Gegenzug menschenähnliche, verständliche Antworten. Diese Interaktion macht die Plattform nicht nur benutzerfreundlich, sondern auch äußerst effektiv für vielfältige Anwendungen.</p>



<p>Ein herausragendes Merkmal von ChatGPT ist seine Zugänglichkeit. Während frühere technologische Durchbrüche oft nur Experten zugänglich waren, öffnet ChatGPT die Tür zur KI für jedermann. Unabhängig von Ihrem technischen Hintergrund können Sie mit ChatGPT interagieren. Der Grund dafür ist einfach: ChatGPT versteht Ihre Muttersprache. Dieses Merkmal unterscheidet ChatGPT deutlich von anderen KI-Plattformen und macht es zu einem praktischen Werkzeug für den täglichen Gebrauch.</p>



<p>Meine Hauptempfehlung ist klar: Nutzen Sie ChatGPT täglich. Es ist eine leistungsstarke Ressource, die Ihnen und Ihrem Team helfen kann, effizienter zu arbeiten, Probleme zu lösen und neue Ideen zu entwickeln. Durch die tägliche Nutzung von ChatGPT können Sie die vielen Vorteile der KI in Ihrem Alltag oder Ihrem beruflichen Umfeld voll ausschöpfen.</p>



<p>Die Konzeption und Entwicklung von ChatGPT ist ein leuchtendes Beispiel dafür, wie weit die KI gekommen ist, und bietet einen Vorgeschmack darauf, was wir in der nahen Zukunft von dieser aufregenden Technologie erwarten können. Mit seiner einfachen Bedienung, seiner Fähigkeit, natürliche Sprache zu verstehen, und seiner weitreichenden Anwendbarkeit zeigt ChatGPT, wie KI heute und in der Zukunft unser Leben bereichern kann.</p>



<h2 class="wp-block-heading"><strong>Grundfunktionalität von ChatGPT</strong></h2>



<p>Die primäre Funktion von ChatGPT besteht darin, auf die Texteingaben der Nutzer zu reagieren und dabei menschenähnliche Dialoge zu ermöglichen. Es stellt Antworten und Informationen bereit, die auf den gestellten Fragen basieren, und erweist sich als robustes Instrument für eine Vielzahl von Anwendungen.</p>



<p>Ein herausragender Aspekt von ChatGPT ist die Tatsache, dass es mit den umfangreichen Daten des Internets trainiert wurde. Dies ermöglicht dem System, eine beeindruckende Bandbreite von Themen abzudecken. Allerdings ist die Art der Frage entscheidend für die Qualität der Antwort. Da ChatGPT in so vielen Bereichen und mit so vielen Nuancen arbeiten kann, liefert das System nicht immer die korrekten oder gewünschten Antworten. Dies ist eine Folge der enormen Informationsmenge, mit der ChatGPT umgehen kann, und der Variabilität in der Art, wie Fragen gestellt werden können.</p>



<p>An dieser Stelle kommt das sogenannte Prompt Engineering ins Spiel. Prompt Engineering ist eine Technik, bei der die Art und Weise, wie eine Frage oder Aufforderung formuliert wird, angepasst wird, um bessere oder genauere Antworten von ChatGPT zu erhalten. Durch geschicktes Formulieren der Prompts können Benutzer die Antworten steuern und verbessern, die ChatGPT liefert. Es ist eine Art, die Interaktion mit ChatGPT zu optimieren, um nützlichere oder zielgerichtetere Antworten zu erhalten. Beispielsweise könnte durch das Hinzufügen von Kontext oder das Stellen von präziseren Fragen die Qualität der von ChatGPT bereitgestellten Antworten erheblich verbessert werden.</p>



<p>Prompt Engineering erfordert ein gewisses Verständnis der Funktionsweise von ChatGPT und kann eine effektive Methode sein, um das Beste aus diesem fortschrittlichen KI-Tool herauszuholen. Durch das Verfeinern der Fragestellung können Benutzer die Fähigkeiten von ChatGPT besser nutzen und die Qualität der erhaltenen Informationen verbessern.</p>



<h2 class="wp-block-heading"><strong>Neueste Aktualisierungen</strong></h2>



<p>In jüngster Zeit hat ChatGPT einige bemerkenswerte Aktualisierungen erlebt, die seine Fähigkeiten erheblich erweitert haben:</p>



<p><strong>Internet-Browsing-Fähigkeiten</strong>: ChatGPT kann jetzt im Internet surfen, um aktuelle und zuverlässige Informationen bereitzustellen, eine deutliche Verbesserung gegenüber der vorherigen Beschränkung auf Daten bis September 2021.</p>



<p><strong>Upgrade auf GPT-4</strong>: Die Aktualisierung auf GPT-4 bietet eine verbesserte Performance und ein besseres Verständnis der Texteingaben.</p>



<h3 class="wp-block-heading"><strong>Einführung von Plugins</strong></h3>



<p>Die Einführung der Plugin-Funktion bei ChatGPT hat die Tür zu einer Vielzahl von erweiterten Interaktions- und Funktionserweiterungen geöffnet. Durch Plugins können Benutzer die Grundfunktionalitäten von ChatGPT erweitern und an ihre spezifischen Bedürfnisse anpassen. Hier sind einige Beispiele für die Art von Möglichkeiten, die durch Plugins eröffnet werden.</p>



<h3 class="wp-block-heading">Prompt Perfect &#8211; Bessere Prompts</h3>



<figure class="wp-block-image size-full is-resized"><img decoding="async" width="356" height="217" src="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik.png" alt="" class="wp-image-766" style="aspect-ratio:1.640552995391705;object-fit:cover;width:300px" srcset="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik.png 356w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-300x183.png 300w" sizes="(max-width: 356px) 100vw, 356px" /></figure>



<p>Prompt Perfect ermöglicht es aus</p>



<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="106" src="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-1-1024x106.png" alt="" class="wp-image-767" srcset="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-1-1024x106.png 1024w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-1-980x101.png 980w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-1-480x49.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1024px, 100vw" /></figure>



<p>das hier zu machen</p>



<figure class="wp-block-image size-full"><img decoding="async" width="947" height="478" src="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-2.png" alt="" class="wp-image-768" srcset="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-2.png 947w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-2-480x242.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 947px, 100vw" /></figure>



<h3 class="wp-block-heading">VoxScript &#8211; Text von Youtube Videos extrahieren</h3>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="343" height="208" src="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-3.png" alt="" class="wp-image-769" style="aspect-ratio:1.6490384615384615;object-fit:cover;width:300px" srcset="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-3.png 343w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-3-300x182.png 300w" sizes="(max-width: 343px) 100vw, 343px" /></figure>



<p>Damit kann aus einem YouTube Video die Untertitel extrahiert werden, um daraus bspw. eine Zusammenfassung zu erstellen.</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="995" height="648" src="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-4.png" alt="" class="wp-image-770" srcset="https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-4.png 995w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-4-980x638.png 980w, https://www.dannygerst.de/wp-content/uploads/sites/7/2023/10/grafik-4-480x313.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 995px, 100vw" /></figure>



<p>Diese Beispiele zeigen, wie Plugins die Interaktion mit ChatGPT bereichern und die Effizienz, Produktivität und Personalisierung der Plattform verbessern können. Die Vielfalt der verfügbaren Plugins zeigt das wachsende Ökosystem um ChatGPT und fördert die Entdeckung neuer Anwendungsfälle und Funktionalitäten, die die Benutzererfahrung insgesamt verbessern.</p>



<h2 class="wp-block-heading">Neuste Features (Stand Oktober 2023)</h2>



<p>ChatGPT hat seit seiner letzten großen Aktualisierung im August 2023 beachtliche Fortschritte gemacht und eine Reihe neuer Features und Fähigkeiten eingeführt, die die Plattform weiter verbessern. Hier sind einige der bemerkenswerten Neuerungen:</p>



<h3 class="wp-block-heading"><strong>Prompt-Beispiele und vorgeschlagene Antworten</strong></h3>



<p>Mit den Updates vom August 2023 bietet ChatGPT jetzt Prompt-Beispiele und vorgeschlagene Antworten an, um die Nutzerinteraktion zu erleichtern. Diese Funktionen helfen dabei, die Kommunikation mit dem System effizienter und benutzerfreundlicher zu gestalten.</p>



<h3 class="wp-block-heading"><strong>Verarbeitung von Stimme und Bildern</strong></h3>



<p>ChatGPT hat die Verarbeitung von Stimme und Bildern eingeführt, wodurch Benutzer nun Sprachgespräche führen oder Bilder mit ChatGPT teilen können. Die Bildverarbeitungsfähigkeit ermöglicht es Benutzern, visuelle Inhalte zu teilen und darauf basierende Anfragen zu stellen, während die Sprachfähigkeit eine natürlichere und intuitivere Interaktion ermöglicht.</p>



<h3 class="wp-block-heading"><strong>App- und Unternehmensversion</strong></h3>



<p>Die Einführung einer iOS-App und einer speziellen Unternehmensversion von ChatGPT hat die Plattform für eine breitere Benutzerbasis und geschäftliche Anforderungen zugänglicher gemacht. Die Unternehmensversion bringt zusätzliche Features wie erweiterte Sicherheitsmaßnahmen, längere Kontextfenster für die Verarbeitung umfangreicher Eingaben und erweiterte Datenanalysefunktionen mit sich.</p>



<h3 class="wp-block-heading"><strong>Integration in andere Anwendungen</strong></h3>



<p>Die erweiterte Integration in andere Anwendungen zeigt die wachsende Vielseitigkeit von ChatGPT und das expandierende Ökosystem um die Plattform herum. Die Möglichkeit, ChatGPT in verschiedene Anwendungen und Dienste zu integrieren, eröffnet neue Möglichkeiten zur Verbesserung und Erweiterung der Funktionalität dieser Anwendungen.</p>



<h3 class="wp-block-heading"><strong>Web-Browsing-Funktionalität</strong></h3>



<p>Mit der Fähigkeit, im Internet zu surfen, bietet ChatGPT jetzt aktuelle und zuverlässige Informationen auf Anfrage. Diese Funktion ist eine signifikante Verbesserung, die die Beschränkung auf vorab trainierte Daten überwindet und die Bereitstellung aktueller Informationen ermöglicht.</p>



<h3 class="wp-block-heading"><strong>DALL-E-Integration</strong></h3>



<p>Durch die Integration von DALL-E in ChatGPT können Benutzer nun Bilder aus Textbeschreibungen generieren. Diese Funktion eröffnet eine Fülle von kreativen Möglichkeiten und visuellen Darstellungen, die die Interaktion mit ChatGPT bereichern.</p>



<h3 class="wp-block-heading"><strong>Erweiterte Datenanalyse (Advanced Data Analysis)</strong></h3>



<p>Die erweiterte Datenanalyse, einst als Code Interpreter bekannt, ist ein weiteres bemerkenswertes Feature, das die Fähigkeit zur Datenanalyse in ChatGPT bringt. Benutzer können Dateien in verschiedenen Formaten hochladen, um umfassende Berichte zu erstellen und Daten auf unterschiedliche Weise zu analysieren. Diese Funktion erleichtert den Prozess der Datenanalyse und bietet die Möglichkeit, Daten zu visualisieren, zu bereinigen und wertvolle Einblicke zu gewinnen.</p>



<h2 class="wp-block-heading"><strong>Fazit</strong></h2>



<p>Die Entwicklungen rund um ChatGPT repräsentieren die bemerkenswerte Fortschritte in der KI-Technologie, die wir in den letzten Jahren erlebt haben. Durch die kontinuierlichen Verbesserungen und Erweiterungen, die OpenAI an ChatGPT vornimmt, wird eine Plattform geschaffen, die nicht nur leistungsstark und vielseitig ist, sondern auch benutzerfreundlich und für eine breite Palette von Anwendungen geeignet.</p>



<p>Die Einfachheit, mit der Benutzer mit ChatGPT interagieren können, ohne technisches Vorwissen haben zu müssen, stellt einen bedeutenden Schritt in Richtung demokratischer Zugang zu KI-Technologie dar. Die jüngsten Aktualisierungen, insbesondere die Integration von Browsing-Fähigkeiten und die Verbesserungen durch das Upgrade auf GPT-4, erhöhen den Wert und die Funktionalität von ChatGPT erheblich.</p>



<p>Darüber hinaus ermöglichen die Einführung von Plugins, die Erweiterung der Stimme- und Bildfähigkeiten und die Verfügbarkeit einer speziellen Unternehmensversion, dass ChatGPT in verschiedenen Szenarien und Anwendungsfällen genutzt werden kann. Dies zeigt die Absicht von OpenAI, ChatGPT zu einer zentralen Plattform für den Umgang mit textbasierten und multimodalen KI-Anwendungen zu machen.</p>



<p>Die Integration von ChatGPT in andere Anwendungen und die stetige Erweiterung des Ökosystems um ChatGPT zeigen, wie KI heute und in der Zukunft unser Leben und unsere Arbeit verbessern kann. Das Versprechen von ChatGPT liegt in seiner Fähigkeit, Menschen bei einer Vielzahl von Aufgaben zu unterstützen, und in der offenen Einladung, die Welt der KI zu erkunden und zu nutzen, unabhängig von der technischen Expertise.</p>



<p>Die Zukunft von ChatGPT und ähnlichen KI-Plattformen sieht hell aus, mit dem Potenzial, die Art und Weise, wie wir mit Technologie interagieren und von ihr profitieren, weiter zu transformieren. Die Entwicklungen in ChatGPT sind ein klares Zeichen für den anhaltenden Aufwärtstrend in der KI-Branche und die immer größere Rolle, die KI in unserem täglichen Leben spielt.</p>



<h2 class="wp-block-heading">FAQ</h2>



<h3 class="wp-block-heading"><strong>Was ist ChatGPT?</strong></h3>



<p>ChatGPT ist eine fortschrittliche KI von OpenAI, die auf dem Generative Pre-trained Transformer-Modell basiert. Sie kann menschenähnliche, verständliche Antworten auf Texteingaben geben und auf eine Vielzahl von Anwendungen angewendet werden.</p>



<h3 class="wp-block-heading"><strong>Wie interagiere ich mit ChatGPT?</strong></h3>



<p>Sie können mit ChatGPT durch einfache Texteingabe interagieren, indem Sie Fragen stellen oder Anweisungen geben.</p>



<h3 class="wp-block-heading"><strong>Was ist das Besondere an ChatGPT?</strong></h3>



<p>ChatGPT ist für jedermann zugänglich, unabhängig von Ihrem technischen Hintergrund, da es natürliche Sprache versteht. Zudem hat es eine breite Palette von Anwendungen und kann nun auch durch Plugins erweitert werden.</p>



<h3 class="wp-block-heading"><strong>Kann ChatGPT im Internet surfen?</strong></h3>



<p>Ja, mit den neuesten Aktualisierungen kann ChatGPT im Internet surfen, um aktuelle und zuverlässige Informationen bereitzustellen.</p>



<h3 class="wp-block-heading"><strong>Was bedeutet das Upgrade auf GPT-4 für ChatGPT?</strong></h3>



<p>Das Upgrade auf GPT-4 verbessert die Leistung und das Verständnis von ChatGPT.</p>



<h3 class="wp-block-heading"><strong>Kann ChatGPT jede Sprache verstehen?</strong></h3>



<p>Ja, ChatGPT kann fast jede Sprache verstehen. Über 95 Sprachen nebst Dialekten sind dem System vertraut.</p>



<h3 class="wp-block-heading"><strong>Gibt es eine App-Version von ChatGPT?</strong></h3>



<p>Ja, es gibt eine ChatGPT-App für iOS, die eine einfachere Zugänglichkeit für Benutzer ermöglicht.</p>



<h3 class="wp-block-heading"><strong>Was sind Plugins in der Bezahlversion von ChatGPT?</strong></h3>



<p>Plugins sind Erweiterungen, die die Grundfunktionalitäten von ChatGPT an spezifische Benutzerbedürfnisse anpassen. Zum Beispiel ermöglicht das Plugin &#8222;Prompt Perfect&#8220; die Verbesserung von Prompts, und &#8222;VoxScript&#8220; ermöglicht die Extraktion von Text aus YouTube-Videos.</p>



<h3 class="wp-block-heading"><strong>Was ist die erweiterte Datenanalyse (Advanced Data Analysis) in ChatGPT?</strong></h3>



<p>Die erweiterte Datenanalyse ist ein Feature, das die Fähigkeit zur Datenanalyse in ChatGPT bringt. Benutzer können Dateien in verschiedenen Formaten hochladen, um umfassende Berichte zu erstellen und Daten auf unterschiedliche Weise zu analysieren.</p>



<h3 class="wp-block-heading"><strong>Wie kann ChatGPT in andere Anwendungen integriert werden</strong>?</h3>



<p>ChatGPT kann in verschiedene Anwendungen und Dienste integriert werden, um deren Funktionalität zu verbessern und zu erweitern. Hierzu gibt es eine Schnittstelle, die genutzt werden kann, um die Fähigkeiten von ChatGPT auch in anderen Anwendungen zu nutzen.</p>



<p></p>



<p class="has-medium-font-size"><strong>Quellen</strong></p>



<p></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link wp-element-button" href="https://chat.openai.com/" target="_blank" rel="noopener">ChatGPT</a></div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.dannygerst.de/was-ist-chatgpt/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>GPT-4 Geheimnisse enthüllt</title>
		<link>https://www.dannygerst.de/enthuellt-die-geheimnisse-hinter-gpt-4/</link>
					<comments>https://www.dannygerst.de/enthuellt-die-geheimnisse-hinter-gpt-4/#respond</comments>
		
		<dc:creator><![CDATA[Danny Gerst]]></dc:creator>
		<pubDate>Wed, 12 Jul 2023 15:35:37 +0000</pubDate>
				<category><![CDATA[LLM]]></category>
		<category><![CDATA[GPT4]]></category>
		<category><![CDATA[OpenAI]]></category>
		<guid isPermaLink="false">https://www.dannygerst.de/?p=453</guid>

					<description><![CDATA[OpenAI hat sich dafür entschieden, die Architektur von GPT-4 nicht öffentlich zu machen, nicht weil sie eine existenzielle Bedrohung für die Menschheit darstellt, sondern weil sie replizierbar ist.]]></description>
										<content:encoded><![CDATA[
<h2 class="wp-block-heading">Warum OpenAI die Architektur von GPT-4 geheim hält</h2>



<p>OpenAI hat sich dafür entschieden, die Architektur von GPT-4 nicht öffentlich zu machen, nicht weil sie eine existenzielle Bedrohung für die Menschheit darstellt, sondern weil sie replizierbar ist. Es wird erwartet, dass Unternehmen wie Google, Meta, Anthropic, Inflection, Character, Tencent, ByteDance, Baidu und andere in naher Zukunft Modelle entwickeln werden, die genauso leistungsfähig sind wie GPT-4, wenn nicht sogar leistungsfähiger.</p>



<h2 class="wp-block-heading">Die Rolle der Ingenieurskunst bei der Entwicklung von GPT-4</h2>



<p>Die Ingenieurskunst von OpenAI ist beeindruckend und das, was sie mit GPT-4 geschaffen haben, ist unglaublich. Aber ihre Lösung ist kein Zaubertrick. Es handelt sich um eine elegante Lösung mit vielen komplexen Kompromissen. Es reicht nicht aus, nur &#8222;groß&#8220; zu sein. Der dauerhafte Vorteil von OpenAI besteht darin, dass sie die meisten realen Anwendungen haben, führende Ingenieurstalente besitzen und in der Lage sind, mit zukünftigen Modellen weiter voranzuschreiten.</p>



<h2 class="wp-block-heading">Die Architektur und Infrastruktur von GPT-4</h2>



<figure class="wp-block-video"><video controls src="https://dannygerst.b-cdn.net/video/Twitter-gpt4-geheimnisse.mp4"></video><figcaption class="wp-element-caption">Tweet von Yam Peleg der nur kurz zu sehen gewesen ist</figcaption></figure>



<h3 class="wp-block-heading">Die Herausforderungen bei der Skalierung von KI-Modellen</h3>



<p>Von GPT-3 zu GPT-4 wollte OpenAI um das 100-fache skalieren, aber das Problem ist die Kosten. Dichte Transformer-Modelle werden nicht weiter skalieren. Ein dichter Transformer ist die Modellarchitektur, die OpenAI GPT-3, Google PaLM, Meta LLAMA, TII Falcon, MosaicML MPT usw. verwenden. Es ist eine gute Architektur, aber sie hat ihre Grenzen, wenn es um die Skalierung geht.</p>



<h3 class="wp-block-heading">Die Bedeutung der Inferenz bei der Skalierung von KI</h3>



<p>Das viel wichtigere Problem bei der Skalierung von KI ist die Inferenz. Das Ziel ist es, die Rechenleistung für das Training von der Rechenleistung für die Inferenz zu entkoppeln. Deshalb macht es Sinn, weit über das Optimum für jedes Modell zu trainieren, das eingesetzt wird. Das ist der Grund, warum man eine Sparse-Modell-Architektur verwendet; nicht jeder Parameter wird während der Inferenz aktiviert.</p>



<h2 class="wp-block-heading">Die Kosten und Vision von GPT-4</h2>



<h3 class="wp-block-heading">Die Rolle der Kosten bei der Entwicklung von KI-Modellen</h3>



<p>Auf den ersten Blick mag es verrückt erscheinen, zehn oder sogar hunderte Millionen Dollar für die Rechenzeit zum Training eines Modells auszugeben, aber für diese Unternehmen ist das eine vernachlässigbare Ausgabe. Es handelt sich im Grunde genommen um eine Investition, bei der eine größere Skalierung konsequent bessere Ergebnisse liefert. Der einzige begrenzende Faktor ist die Skalierung dieser Rechenleistung auf einen Zeitrahmen, in dem Menschen Feedback geben und die Architektur anpassen können.</p>



<h3 class="wp-block-heading">Die Vision von OpenAI für GPT-4 und darüber hinaus</h3>



<p>In den nächsten Jahren werden mehrere Unternehmen wie Google, Meta und OpenAI/Microsoft Modelle auf Supercomputern trainieren, die über hundert Milliarden Dollar wert sind. Diese massiven Modelle können dann auf verschiedene Weisen produktiv genutzt werden. Diese Anstrengungen werden in mehreren Ländern und Unternehmen dupliziert. Es ist das neue Raumfahrtrennen.</p>



<h2 class="wp-block-heading">Fazit und Ausblick</h2>



<h3 class="wp-block-heading">Die Bedeutung von GPT-4 in der KI-Landschaft</h3>



<p>GPT-4 ist ein Meilenstein in der Entwicklung von KI-Modellen. Es zeigt, was möglich ist, wenn man die richtigen Ressourcen, das richtige Know-how und die richtige Vision hat. Es ist ein Beweis dafür, dass KI nicht nur ein Hype ist, sondern eine Technologie, die das Potenzial hat, viele Aspekte unseres Lebens zu verändern.</p>



<h3 class="wp-block-heading">Was wir von zukünftigen Modellen erwarten können</h3>



<p>Die Entwicklung von GPT-4 ist nur der Anfang. Mit der Zeit werden wir wahrscheinlich noch größere und leistungsfähigere Modelle sehen. Und während diese Modelle immer komplexer werden, werden auch die Herausforderungen, die sie mit sich bringen, immer größer. Aber wenn die Geschichte uns etwas gelehrt hat, dann ist es, dass wir diese Herausforderungen meistern können.</p>



<h2 class="wp-block-heading">Häufig gestellte Fragen (FAQs)</h2>



<h3 class="wp-block-heading"><strong>Was ist GPT-4?</strong></h3>



<p>GPT-4 ist ein KI-Modell, das von OpenAI entwickelt wurde. Es ist eine Weiterentwicklung von GPT-3 und hat eine größere Kapazität und Leistung.</p>



<h3 class="wp-block-heading"><strong>Warum hält OpenAI die Architektur von GPT-4 geheim?</strong></h3>



<p>OpenAI hält die Architektur von GPT-4 geheim, weil sie replizierbar ist. Sie glauben, dass andere Unternehmen in der Lage sein werden, ähnliche Modelle zu entwickeln.</p>



<h3 class="wp-block-heading"><strong>Was sind die Herausforderungen bei der Skalierung von KI-Modellen?</strong></h3>



<p>Die größten Herausforderungen bei der Skalierung von KI-Modellen sind die Kosten und die Notwendigkeit, die Rechenleistung für das Training von der Rechenleistung für die Inferenz zu entkoppeln.</p>



<h3 class="wp-block-heading"><strong>Was ist die Vision von OpenAI für GPT-4 und darüber hinaus?</strong></h3>



<p>OpenAI sieht GPT-4 als einen Schritt auf dem Weg zu noch leistungsfähigeren KI-Modellen. Sie glauben, dass diese Modelle in der Lage sein werden, eine Vielzahl von Aufgaben zu erfüllen und einen echten Wert zu schaffen.</p>



<h3 class="wp-block-heading"><strong>Was können wir von zukünftigen KI-Modellen erwarten?</strong></h3>



<p>Wir können erwarten, dass zukünftige KI-Modelle noch leistungsfähiger und vielseitiger sein werden. Sie werden wahrscheinlich auch komplexer sein und größere Herausforderungen mit sich bringen.</p>



<p></p>



<p class="has-medium-font-size"><strong>Quellen</strong></p>



<p></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link wp-element-button" href="https://www.semianalysis.com/p/gpt-4-architecture-infrastructure" target="_blank" rel="noopener">SemiAnalysis</a></div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.dannygerst.de/enthuellt-die-geheimnisse-hinter-gpt-4/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		<enclosure url="https://dannygerst.b-cdn.net/video/Twitter-gpt4-geheimnisse.mp4" length="2049900" type="video/mp4" />

			</item>
	</channel>
</rss>
