Advertisement
daUnknownCoder

Untitled

Aug 5th, 2023
20
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 25.23 KB | None | 0 0
  1. sgpt --code "Solve classic fizz buzz problem using Python" (base)
  2. ╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
  3. │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/app.py:167 in main │
  4. │ │
  5. │ 164 │ │ │ caching=cache, │
  6. │ 165 │ │ ) │
  7. │ 166 │ else: │
  8. │ ❱ 167 │ │ full_completion = DefaultHandler(role_class).handle( │
  9. │ 168 │ │ │ prompt, │
  10. │ 169 │ │ │ model=model, │
  11. │ 170 │ │ │ temperature=temperature, │
  12. │ │
  13. │ ╭─────────────────────────────── locals ────────────────────────────────╮ │
  14. │ │ cache = True │ │
  15. │ │ chat = None │ │
  16. │ │ code = True │ │
  17. │ │ create_role = None │ │
  18. │ │ describe_shell = False │ │
  19. │ │ editor = False │ │
  20. │ │ install_integration = None │ │
  21. │ │ list_chats = None │ │
  22. │ │ list_roles = None │ │
  23. │ │ model = 'gpt-3.5-turbo' │ │
  24. │ │ prompt = 'Solve classic fizz buzz problem using Python' │ │
  25. │ │ repl = None │ │
  26. │ │ role = None │ │
  27. │ │ role_class = <sgpt.role.SystemRole object at 0x7f3588afbe50> │ │
  28. │ │ shell = False │ │
  29. │ │ show_chat = None │ │
  30. │ │ show_role = None │ │
  31. │ │ stdin_passed = False │ │
  32. │ │ temperature = 0.1 │ │
  33. │ │ top_probability = 1.0 │ │
  34. │ ╰───────────────────────────────────────────────────────────────────────╯ │
  35. │ │
  36. │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/handlers/handler.py:33 in handle │
  37. │ │
  38. │ 30 │ │ stream = cfg.get("DISABLE_STREAMING") == "false" │
  39. │ 31 │ │ if not stream: │
  40. │ 32 │ │ │ typer.echo("Loading...\r", nl=False) │
  41. │ ❱ 33 │ │ for word in self.get_completion(messages=messages, **kwargs): │
  42. │ 34 │ │ │ typer.secho(word, fg=self.color, bold=True, nl=False) │
  43. │ 35 │ │ │ full_completion += word │
  44. │ 36 │ │ typer.echo("\033[K" if not stream else "") # Overwrite "loading..." │
  45. │ │
  46. │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
  47. │ │ full_completion = '' │ │
  48. │ │ kwargs = { │ │
  49. │ │ │ 'model': 'gpt-3.5-turbo', │ │
  50. │ │ │ 'temperature': 0.1, │ │
  51. │ │ │ 'top_probability': 1.0, │ │
  52. │ │ │ 'caching': True │ │
  53. │ │ } │ │
  54. │ │ messages = [ │ │
  55. │ │ │ { │ │
  56. │ │ │ │ 'role': 'user', │ │
  57. │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
  58. │ │ without any description.\nIMPORTA'+337 │ │
  59. │ │ │ } │ │
  60. │ │ ] │ │
  61. │ │ prompt = 'Solve classic fizz buzz problem using Python' │ │
  62. │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f3588afaf50> │ │
  63. │ │ stream = True │ │
  64. │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
  65. │ │
  66. │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/handlers/handler.py:25 in │
  67. │ get_completion │
  68. │ │
  69. │ 22 │ │ raise NotImplementedError │
  70. │ 23 │ │
  71. │ 24 │ def get_completion(self, **kwargs: Any) -> Generator[str, None, None]: │
  72. │ ❱ 25 │ │ yield from self.client.get_completion(**kwargs) │
  73. │ 26 │ │
  74. │ 27 │ def handle(self, prompt: str, **kwargs: Any) -> str: │
  75. │ 28 │ │ messages = self.make_messages(self.make_prompt(prompt)) │
  76. │ │
  77. │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
  78. │ │ kwargs = { │ │
  79. │ │ │ 'messages': [ │ │
  80. │ │ │ │ { │ │
  81. │ │ │ │ │ 'role': 'user', │ │
  82. │ │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output without │ │
  83. │ │ any description.\nIMPORTA'+337 │ │
  84. │ │ │ │ } │ │
  85. │ │ │ ], │ │
  86. │ │ │ 'model': 'gpt-3.5-turbo', │ │
  87. │ │ │ 'temperature': 0.1, │ │
  88. │ │ │ 'top_probability': 1.0, │ │
  89. │ │ │ 'caching': True │ │
  90. │ │ } │ │
  91. │ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f3588afaf50> │ │
  92. │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
  93. │ │
  94. │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/client.py:98 in get_completion │
  95. │ │
  96. │ 95 │ │ :param caching: Boolean value to enable/disable caching. │
  97. │ 96 │ │ :return: String generated completion. │
  98. │ 97 │ │ """ │
  99. │ ❱ 98 │ │ yield from self._request( │
  100. │ 99 │ │ │ messages, │
  101. │ 100 │ │ │ model, │
  102. │ 101 │ │ │ temperature, │
  103. │ │
  104. │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
  105. │ │ caching = True │ │
  106. │ │ messages = [ │ │
  107. │ │ │ { │ │
  108. │ │ │ │ 'role': 'user', │ │
  109. │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
  110. │ │ without any description.\nIMPORTA'+337 │ │
  111. │ │ │ } │ │
  112. │ │ ] │ │
  113. │ │ model = 'gpt-3.5-turbo' │ │
  114. │ │ self = <sgpt.client.OpenAIClient object at 0x7f3588afbd50> │ │
  115. │ │ temperature = 0.1 │ │
  116. │ │ top_probability = 1.0 │ │
  117. │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
  118. │ │
  119. │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/cache.py:39 in wrapper │
  120. │ │
  121. │ 36 │ │ │ │ yield cache_file.read_text() │
  122. │ 37 │ │ │ │ return │
  123. │ 38 │ │ │ result = "" │
  124. │ ❱ 39 │ │ │ for i in func(*args, **kwargs): │
  125. │ 40 │ │ │ │ result += i │
  126. │ 41 │ │ │ │ yield i │
  127. │ 42 │ │ │ cache_file.write_text(result) │
  128. │ │
  129. │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
  130. │ │ args = ( │ │
  131. │ │ │ <sgpt.client.OpenAIClient object at 0x7f3588afbd50>, │ │
  132. │ │ │ [ │ │
  133. │ │ │ │ { │ │
  134. │ │ │ │ │ 'role': 'user', │ │
  135. │ │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
  136. │ │ without any description.\nIMPORTA'+337 │ │
  137. │ │ │ │ } │ │
  138. │ │ │ ], │ │
  139. │ │ │ 'gpt-3.5-turbo', │ │
  140. │ │ │ 0.1, │ │
  141. │ │ │ 1.0 │ │
  142. │ │ ) │ │
  143. │ │ cache_file = PosixPath('/tmp/cache/7a1b8771f4d6585511677f7563706d94') │ │
  144. │ │ cache_key = '7a1b8771f4d6585511677f7563706d94' │ │
  145. │ │ func = <function OpenAIClient._request at 0x7f3588f209a0> │ │
  146. │ │ kwargs = {} │ │
  147. │ │ result = '' │ │
  148. │ │ self = <sgpt.cache.Cache object at 0x7f3589795e50> │ │
  149. │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
  150. │ │
  151. │ /home/coder-takshil/.local/lib/python3.11/site-packages/sgpt/client.py:61 in _request │
  152. │ │
  153. │ 58 │ │ │ timeout=REQUEST_TIMEOUT, │
  154. │ 59 │ │ │ stream=stream, │
  155. │ 60 │ │ ) │
  156. │ ❱ 61 │ │ response.raise_for_status() │
  157. │ 62 │ │ # TODO: Optimise. │
  158. │ 63 │ │ # https://github.com/openai/openai-python/blob/237448dc072a2c062698da3f9f512fae3 │
  159. │ 64 │ │ if not stream: │
  160. │ │
  161. │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
  162. │ │ data = { │ │
  163. │ │ │ 'messages': [ │ │
  164. │ │ │ │ { │ │
  165. │ │ │ │ │ 'role': 'user', │ │
  166. │ │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
  167. │ │ without any description.\nIMPORTA'+337 │ │
  168. │ │ │ │ } │ │
  169. │ │ │ ], │ │
  170. │ │ │ 'model': 'gpt-3.5-turbo', │ │
  171. │ │ │ 'temperature': 0.1, │ │
  172. │ │ │ 'top_p': 1.0, │ │
  173. │ │ │ 'stream': True │ │
  174. │ │ } │ │
  175. │ │ endpoint = 'https://api.openai.com/v1/chat/completions' │ │
  176. │ │ messages = [ │ │
  177. │ │ │ { │ │
  178. │ │ │ │ 'role': 'user', │ │
  179. │ │ │ │ 'content': '###\nRole name: code\nProvide only code as output │ │
  180. │ │ without any description.\nIMPORTA'+337 │ │
  181. │ │ │ } │ │
  182. │ │ ] │ │
  183. │ │ model = 'gpt-3.5-turbo' │ │
  184. │ │ response = <Response [429]> │ │
  185. │ │ self = <sgpt.client.OpenAIClient object at 0x7f3588afbd50> │ │
  186. │ │ stream = True │ │
  187. │ │ temperature = 0.1 │ │
  188. │ │ top_probability = 1.0 │ │
  189. │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
  190. │ │
  191. │ /home/linuxbrew/.linuxbrew/opt/python@3.11/lib/python3.11/site-packages/requests/models.py:1021 │
  192. │ in raise_for_status │
  193. │ │
  194. │ 1018 │ │ │ ) │
  195. │ 1019 │ │ │
  196. │ 1020 │ │ if http_error_msg: │
  197. │ ❱ 1021 │ │ │ raise HTTPError(http_error_msg, response=self) │
  198. │ 1022 │ │
  199. │ 1023 │ def close(self): │
  200. │ 1024 │ │ """Releases the connection back to the pool. Once this method has been │
  201. │ │
  202. │ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
  203. │ │ http_error_msg = '429 Client Error: Too Many Requests for url: │ │
  204. │ │ https://api.openai.com/v1/chat/comp'+7 │ │
  205. │ │ reason = 'Too Many Requests' │ │
  206. │ │ self = <Response [429]> │ │
  207. │ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
  208. ╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
  209. HTTPError: 429 Client Error: Too Many Requests for url: https://api.openai.com/v1/chat/completions
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement