]> TLD Linux GIT Repositories - tld-builder.git/commitdiff
- use builtin python3 urllib instead of urllib2
authorMarcin Krol <hawk@tld-linux.org>
Sun, 2 May 2021 12:10:23 +0000 (14:10 +0200)
committerMarcin Krol <hawk@tld-linux.org>
Sun, 2 May 2021 12:10:23 +0000 (14:10 +0200)
TLD_Builder/file_sender.py
TLD_Builder/request_fetcher.py
TLD_Builder/rpm_builder.py

index 18ee8d8da4425c2ae6ec11b1a97f280ad932640a..056045826204a5a0a3646a98bb4d184187343a57 100644 (file)
@@ -8,8 +8,7 @@ import time
 import shutil
 import sys
 import traceback
-import urllib2
-
+import urllib
 from config import config, init_conf
 import mailer
 import path
@@ -94,11 +93,11 @@ def post_file(src, url):
     global problems
     try:
         f = open(src, 'r')
-        data = f.read()
+        data = f.read().encode('utf-8')
         f.close()
-        req = urllib2.Request(url, data)
-        req.add_header('X-Filename', os.path.basename(src))
-        f = urllib2.urlopen(req)
+        headers = { 'X-Filename' : os.path.basename(src) }
+        req = urllib.request.Request(url, data=data, headers=headers)
+        f = urllib.request.urlopen(req)
         f.close()
     except Exception as e:
         problems[src] = e
index 25b130f7007da73017100b542439a032181315d0..226e4ee573c3f4054c8f296700dace689e655b52 100644 (file)
@@ -4,7 +4,6 @@ import string
 import signal
 import os
 import urllib
-import urllib2
 import sys
 from io import StringIO
 import gzip
@@ -42,8 +41,8 @@ def has_new(control_url):
     signal.alarm(300)
     try:
         headers = { 'Cache-Control': 'no-cache', 'Pragma': 'no-cache' }
-        req = urllib2.Request(url=control_url + "/max_req_no", headers=headers)
-        f = urllib2.urlopen(req)
+        req = urllib.request.Request(url=control_url + "/max_req_no", headers=headers)
+        f = urllib.request.urlopen(req)
         count = int(f.readline().strip())
         signal.alarm(0)
     except Exception as e:
@@ -62,8 +61,8 @@ def fetch_queue(control_url):
     signal.alarm(300)
     try:
         headers = { 'Cache-Control': 'no-cache', 'Pragma': 'no-cache' }
-        req = urllib2.Request(url=control_url + "/queue.gz", headers=headers)
-        f = urllib2.urlopen(req)
+        req = urllib.request.Request(url=control_url + "/queue.gz", headers=headers)
+        f = urllib.request.urlopen(req)
         signal.alarm(0)
     except Exception as e:
         signal.alarm(0)
index e33a7e1ff325a55557ec5607b479d022c8d61a73..65ab8e21513653a3415a4960d0da1a87f9be6592 100644 (file)
@@ -9,7 +9,6 @@ import time
 import datetime
 import string
 import urllib
-import urllib2
 
 from config import config, init_conf
 from bqueue import B_Queue
@@ -62,12 +61,12 @@ def check_skip_build(r, b):
     while not good:
         try:
             headers = { 'Cache-Control': 'no-cache', 'Pragma': 'no-cache' }
-            req = urllib2.Request(url=src_url, headers=headers)
-            f = urllib2.urlopen(req)
+            req = urllib.request.Request(url=src_url, headers=headers)
+            f = urllib.request.urlopen(req)
             good = True
-        except urllib2.HTTPError as error:
+        except urllib.error.HTTPError as error:
             return False
-        except urllib2.URLError as error:
+        except urllib.error.URLError as error:
             # see errno.h
             try:
                 errno = error.errno
@@ -92,10 +91,10 @@ def fetch_src(r, b):
     while not good:
         try:
             headers = { 'Cache-Control': 'no-cache', 'Pragma': 'no-cache' }
-            req = urllib2.Request(url=src_url, headers=headers)
-            f = urllib2.urlopen(req)
+            req = urllib.request.Request(url=src_url, headers=headers)
+            f = urllib.request.urlopen(req)
             good = True
-        except urllib2.HTTPError as error:
+        except urllib.error.HTTPError as error:
             # fail in a way where cron job will retry
             msg = "unable to fetch url %s, http code: %d" % (src_url, error.code)
             b.log_line(msg)
@@ -107,7 +106,7 @@ def fetch_src(r, b):
                 msg = "in queue for more than 6 hours, download failing"
                 b.log_line(msg)
                 return False
-        except urllib2.URLError as error:
+        except urllib.error.URLError as error:
             errno = 0
             if isinstance(error.args[0], IOError):
                 errno = error.args[0].errno