Advertisement
Not a member of Pastebin yet?
Sign Up,
it unlocks many cool features!
- sgpt --code "Solve classic fizz buzz problem using Python" (base)
- ╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
- │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/app.py:167 in main │
- │ │
- │ 164 │ │ │ caching=cache, │
- │ 165 │ │ ) │
- │ 166 │ else: │
- │ ❱ 167 │ │ full_completion = DefaultHandler(role_class).handle( │
- │ 168 │ │ │ prompt, │
- │ 169 │ │ │ model=model, │
- │ 170 │ │ │ temperature=temperature, │
- │ │
- │ ╭─────────────────────────────── locals ────────────────────────────────╮ │
- │ │ cache = True │ │
- │ │ chat = None │ │
- │ │ code = True │ │
- │ │ create_role = None │ │
- │ │ describe_shell = False │ │
- │ │ editor = False │ │
- │ │ install_integration = None │ │
- │ │ list_chats = None │ │
- │ │ list_roles = None │ │
- │ │ model = 'gpt-3.5-turbo' │ │
- │ │ prompt = 'Solve classic fizz buzz problem using Python' │ │
- │ │ repl = None │ │
- │ │ role = None │ │
- │ │ role_class = <sgpt.role.SystemRole object at 0x7f3588afbe50> │ │
- │ │ shell = False │ │
- │ │ show_chat = None │ │
- │ │ show_role = None │ │
- │ │ stdin_passed = False │ │
- │ │ temperature = 0.1 │ │
- │ │ top_probability = 1.0 │ │
- │ ╰───────────────────────────────────────────────────────────────────────╯ │
- │ │
- │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/handlers/handler.py:33 in handle │
- │ │
- │ 30 │ │ stream = cfg.get("DISABLE_STREAMING") == "false" │
- │ 31 │ │ if not stream: │
- │ 32 │ │ │ typer.echo("Loading...\r", nl=False) │
- │ ❱ 33 │ │ for word in self.get_completion(messages=messages, **kwargs): │
- │ 34 │ │ │ typer.secho(word, fg=self.color, bold=True, nl=False) │
- │ 35 │ │ │ full_completion += word │
- │ 36 │ │ typer.echo("\033[K" if not stream else "") # Overwrite "loading..." │
- │ │
- │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
- │ │ full_completion = '' │ │
- │ │ kwargs = { │ │
- │ │ │ 'model': 'gpt-3.5-turbo', │ │
- │ │ │ 'temperature': 0.1, │ │
- │ │ │ 'top_probability': 1.0, │ │
- │ │ │ 'caching': True │ │
- │ │ } │ │
- │ │ messages = [ │ │
- │ │ │ { │ │
- │ │ │ │ 'role': 'user', │ │
- │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
- │ │ without any description.\nIMPORTA'+337 │ │
- │ │ │ } │ │
- │ │ ] │ │
- │ │ prompt = 'Solve classic fizz buzz problem using Python' │ │
- │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f3588afaf50> │ │
- │ │ stream = True │ │
- │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
- │ │
- │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/handlers/handler.py:25 in │
- │ get_completion │
- │ │
- │ 22 │ │ raise NotImplementedError │
- │ 23 │ │
- │ 24 │ def get_completion(self, **kwargs: Any) -> Generator[str, None, None]: │
- │ ❱ 25 │ │ yield from self.client.get_completion(**kwargs) │
- │ 26 │ │
- │ 27 │ def handle(self, prompt: str, **kwargs: Any) -> str: │
- │ 28 │ │ messages = self.make_messages(self.make_prompt(prompt)) │
- │ │
- │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
- │ │ kwargs = { │ │
- │ │ │ 'messages': [ │ │
- │ │ │ │ { │ │
- │ │ │ │ │ 'role': 'user', │ │
- │ │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output without │ │
- │ │ any description.\nIMPORTA'+337 │ │
- │ │ │ │ } │ │
- │ │ │ ], │ │
- │ │ │ 'model': 'gpt-3.5-turbo', │ │
- │ │ │ 'temperature': 0.1, │ │
- │ │ │ 'top_probability': 1.0, │ │
- │ │ │ 'caching': True │ │
- │ │ } │ │
- │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f3588afaf50> │ │
- │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
- │ │
- │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/client.py:98 in get_completion │
- │ │
- │ 95 │ │ :param caching: Boolean value to enable/disable caching. │
- │ 96 │ │ :return: String generated completion. │
- │ 97 │ │ """ │
- │ ❱ 98 │ │ yield from self._request( │
- │ 99 │ │ │ messages, │
- │ 100 │ │ │ model, │
- │ 101 │ │ │ temperature, │
- │ │
- │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
- │ │ caching = True │ │
- │ │ messages = [ │ │
- │ │ │ { │ │
- │ │ │ │ 'role': 'user', │ │
- │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
- │ │ without any description.\nIMPORTA'+337 │ │
- │ │ │ } │ │
- │ │ ] │ │
- │ │ model = 'gpt-3.5-turbo' │ │
- │ │ self = <sgpt.client.OpenAIClient object at 0x7f3588afbd50> │ │
- │ │ temperature = 0.1 │ │
- │ │ top_probability = 1.0 │ │
- │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
- │ │
- │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/cache.py:39 in wrapper │
- │ │
- │ 36 │ │ │ │ yield cache_file.read_text() │
- │ 37 │ │ │ │ return │
- │ 38 │ │ │ result = "" │
- │ ❱ 39 │ │ │ for i in func(*args, **kwargs): │
- │ 40 │ │ │ │ result += i │
- │ 41 │ │ │ │ yield i │
- │ 42 │ │ │ cache_file.write_text(result) │
- │ │
- │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
- │ │ args = ( │ │
- │ │ │ <sgpt.client.OpenAIClient object at 0x7f3588afbd50>, │ │
- │ │ │ [ │ │
- │ │ │ │ { │ │
- │ │ │ │ │ 'role': 'user', │ │
- │ │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
- │ │ without any description.\nIMPORTA'+337 │ │
- │ │ │ │ } │ │
- │ │ │ ], │ │
- │ │ │ 'gpt-3.5-turbo', │ │
- │ │ │ 0.1, │ │
- │ │ │ 1.0 │ │
- │ │ ) │ │
- │ │ cache_file = PosixPath('/tmp/cache/7a1b8771f4d6585511677f7563706d94') │ │
- │ │ cache_key = '7a1b8771f4d6585511677f7563706d94' │ │
- │ │ func = <function OpenAIClient._request at 0x7f3588f209a0> │ │
- │ │ kwargs = {} │ │
- │ │ result = '' │ │
- │ │ self = <sgpt.cache.Cache object at 0x7f3589795e50> │ │
- │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
- │ │
- │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/client.py:61 in _request │
- │ │
- │ 58 │ │ │ timeout=REQUEST_TIMEOUT, │
- │ 59 │ │ │ stream=stream, │
- │ 60 │ │ ) │
- │ ❱ 61 │ │ response.raise_for_status() │
- │ 62 │ │ # TODO: Optimise. │
- │ 63 │ │ # https://github.com/openai/openai-python/blob/237448dc072a2c062698da3f9f512fae3 │
- │ 64 │ │ if not stream: │
- │ │
- │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
- │ │ data = { │ │
- │ │ │ 'messages': [ │ │
- │ │ │ │ { │ │
- │ │ │ │ │ 'role': 'user', │ │
- │ │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
- │ │ without any description.\nIMPORTA'+337 │ │
- │ │ │ │ } │ │
- │ │ │ ], │ │
- │ │ │ 'model': 'gpt-3.5-turbo', │ │
- │ │ │ 'temperature': 0.1, │ │
- │ │ │ 'top_p': 1.0, │ │
- │ │ │ 'stream': True │ │
- │ │ } │ │
- │ │ endpoint = 'https://api.openai.com/v1/chat/completions' │ │
- │ │ messages = [ │ │
- │ │ │ { │ │
- │ │ │ │ 'role': 'user', │ │
- │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
- │ │ without any description.\nIMPORTA'+337 │ │
- │ │ │ } │ │
- │ │ ] │ │
- │ │ model = 'gpt-3.5-turbo' │ │
- │ │ response = <Response [429]> │ │
- │ │ self = <sgpt.client.OpenAIClient object at 0x7f3588afbd50> │ │
- │ │ stream = True │ │
- │ │ temperature = 0.1 │ │
- │ │ top_probability = 1.0 │ │
- │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
- │ │
- │ /home/linuxbrew/.linuxbrew/opt/python@3.11/lib/python3.11/site-packages/requests/models.py:1021 │
- │ in raise_for_status │
- │ │
- │ 1018 │ │ │ ) │
- │ 1019 │ │ │
- │ 1020 │ │ if http_error_msg: │
- │ ❱ 1021 │ │ │ raise HTTPError(http_error_msg, response=self) │
- │ 1022 │ │
- │ 1023 │ def close(self): │
- │ 1024 │ │ """Releases the connection back to the pool. Once this method has been │
- │ │
- │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
- │ │ http_error_msg = '429 Client Error: Too Many Requests for url: │ │
- │ │ https://api.openai.com/v1/chat/comp'+7 │ │
- │ │ reason = 'Too Many Requests' │ │
- │ │ self = <Response [429]> │ │
- │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
- ╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
- HTTPError: 429 Client Error: Too Many Requests for url: https://api.openai.com/v1/chat/completions
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement