Es gibt ein paar Ansätze für Streaming LLMs, aber soweit ich weiß gibt es noch kein Endnutzer Tool.
Ein einfacher Trick wäre es den 1. Output, also z.B. den ersten Teil deiner Story als Context mitzusenden, wenn du den 2. Teil der Story kreieren willst (und so weiter).
Google's Gemini 1.5 Pro wird ein Context Window von 1M Tokens haben (~700k Wörter) - das ist nur etwas weniger als die gesammelten Werke von Shakespeare. Aber auch schon mit Chat GPT (z.B. 3.5 Turbo) kannst du die Methode versuchen um längere, zusammenhängende Texte zu kreieren. Viel Spaß!