在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/ Python問答
愛是癌 回答

總感覺好像哪里還有問題,但是試了好多組數(shù)據(jù),結(jié)果又都是正確的,

function sumArray(arr){
  var length = arr.length
  var sum = 0
  for(var i = 0;i<length;i++){
    sum += arr[i] 
  }
  
  return sum
}

function blanceArray(left,right){
  console.log('==========================')
  console.log(left,right)
  var leftsum = sumArray(left)
  var rightsum = sumArray(right)
  console.table(leftsum,rightsum)
  if(leftsum>rightsum){
    return false
  }
  if(leftsum === rightsum){
    return [left,right]
  } else {
    var findnum = (rightsum-leftsum)/2
    for(var i = 0;i<=right.length;i++){
      if(right[i]===findnum){
        left.push(...right.splice(i,1))
        return [left,right]
      }
    }
    left.push(right.pop())
    return blanceArray(left,right)
  }
  
}

function main(arr){
  var sum = sumArray(arr)
  console.log(sum)
  if(sum % 2 !== 0){
    return false
  }
  
  arr.sort(function(a,b){
    return a<b
  })
  
  
  
  var left = [arr.shift()]
  //console.log(arr)
  return blanceArray(left,arr)
  
}

//var testarr = [2,5,6,7,8,4]
var testarr = [3,2,4,3]
var testarr = [1,3,3,6,7,8,16,2]

var result = main(testarr)

console.log(result)

http://jsbin.com/yipuxajala/1...

傻叼 回答

你用 const content = document.createElement('div');

    content.contentEditable = true;
    // 簡易markdown
    let timer;
    content.addEventListener('input', (event) => {
        clearTimeout(timer);

        timer = setTimeout(() => {
            // 打印你的html文本 
            console.log(String.fromCharCode(event.target.innerHTML));
        }, 500);
        event.preventDefault();
    }, false);
久礙你 回答

數(shù)據(jù)還存在是因為mysql數(shù)據(jù)被掛載出來了
注意看docker-compose文件里面的volume配置

冷咖啡 回答

將前面的http://括起來

P = re.compile('(https?://)?(?:[a-zA-Z]|[0-9]|[$-_@.&+]|[!*\(\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+')
膽怯 回答

提供兩個思路:

1.分析動態(tài)鏈接

如下F12->網(wǎng)絡(luò)network->xhr里面有這些異步加載的鏈接response

clipboard.png

點開動態(tài)鏈接,你可以得到json格式的數(shù)據(jù)

clipboard.png

你要做的是分析這些動態(tài)鏈接URL的規(guī)律,然后requests發(fā)出請求,獲取json數(shù)據(jù)然后用json.loads解析獲取。

2.瀏覽器內(nèi)核

這個可以參考@thechosenone的答案


歡迎關(guān)注我的專欄或微信公眾號:Python網(wǎng)絡(luò)爬蟲分享

蟲児飛 回答

看著是python的環(huán)境變量沒配置,找不到python導致的

你的瞳 回答

你這句SQL等價于:
select a,b from atable join btable on atable.id=btable.id

疚幼 回答

什么破書……那個 choice 沒定義在那里,所以新版本不小心就沒了吧……

>>> from numpy.random import choice
>>> choice(['red', 'green'])
'red'
獨特范 回答

只把Solution這個類寫好就可以了,他自己會調(diào)用這個類,你的main是不會執(zhí)行的。
其實整個流程有點像單元測試的。

尛憇藌 回答
def createCounter():
    L = 0
    def counter():
        B = L +1
        return B
    return counter
c = createCounter()
print([c(),c(),c()])

你試一下這個。
數(shù)值是常量,而list這種數(shù)據(jù)結(jié)構(gòu),變量保存的是引用地址。和變量作用域以及變量的數(shù)據(jù)類型也有關(guān)。

def createCounter():
    L = 0
    def counter():
        nonlocal L
        L += 1
        return L
    return counter
c = createCounter()
print([c(),c(),c()])

不知道你為什么要這么用,可以去了解一下“閉包”、“變量作用域”等相關(guān)知識。

純妹 回答

你可以試試這樣

from models.theme_product import Theme_Product

如果這個還不行,試試這個

from 項目目錄.models.theme_product import Theme_Product
耍太極 回答

pywin32 只是windows api的封裝, 現(xiàn)在的QQ機器人都是通過模擬瀏覽器WEBQQ的協(xié)議去做的。不過像XX群發(fā)器都是用 windows api做的。 以前我也弄過不少, 簡單點就是控制鼠標坐標,模擬點擊,模擬回車之類的。點擊前需要獲取窗口位置,當前鼠標的像素顏色等,需要一定的邏輯判斷。

亮瞎她 回答

有兩個內(nèi)置的模塊可以用,zlib和bz2,但是不一定能達到你要求的這個壓縮率,需要你驗證下看看,用法很簡單,這樣:

import zlib
import bz2
content = "test input string"
print len(zlib.compress(content))
print len(bz2.compress(content))

如果還希望加密,可以用第三方庫PyCrypto,如果不想用第三方庫,似乎沒什么好用的內(nèi)置加密算法,可以自己用異或做一個最簡單的加解密,通常來說加密算法不會壓縮,所以你的需求需要加密和壓縮算法一起用,如果只需要出來的是不可讀明文,壓縮就可以了,就不用加密了。

尤禮 回答

__v 是放在類下的,又不是放在實例下來的?!邦悺焙汀皩嵗北緛砭褪莾蓚€東西。

還有:

class Foo(object): 
    pass

這樣寫。

陪她鬧 回答
'select %s from score where id=%s' % (p,flag)
心悲涼 回答

你可以用xml的庫來實現(xiàn)字符串組織,也可以自己用xml文本硬填。比如可以定義一個字符串
a="<?xml .....省略無用的><appToken>{appToken}</appToken></xml>".format(appToken='xzxzxxxx')
然后
import json
body = json.dumps(a)
h=''#根據(jù)文檔組織xml頭
zeep.post(url='xxx',message= body,headers=h)
body就是你要發(fā)送的xml請求內(nèi)容。

命多硬 回答

你只是定義了一個Request, 定義好的Request自己并不去去建立網(wǎng)絡(luò)聯(lián)接并下載, 而是能過scrapy的Downloader和Spider來完成.
參考官方文檔:

一般來說,Request 對象在spiders中被生成并且最終傳遞到 下載器(Downloader),下載器對其進行處理并返回一個 Response 對象, Response 對象還會返回到生成request的spider中。

如果想讓他運行, 可以定義如下的spider

import scrapy
from scrapy.spiders import CrawlSpider, Rule

url = 'https://doc.scrapy.org/en/latest/intro/tutorial.html'


def ret(response):
    print('start print\n')
    print(response.body)

def errorcb(err):
    print(err+"\n")
    pass



class MySpider(CrawlSpider):
    name="test"
    def start_requests(self):
        return [scrapy.http.Request(url=url, callback=ret, errback=errorcb)]

保存成文件scrapy_cb.py, 然后通過

scrapy runspider scrapy_cb.py 

來運行

撿肥皂 回答

[已解決]兩個問題:
1、報錯信息呢?
2、使用域名訪問本地靜態(tài)圖片資源是什么鬼?


1、圖片放在哪個目錄下的?
2、服務(wù)器是否限制了獲取服務(wù)器圖片資源?