無量壽佛,具體問題具體分析了,你的跨域403問題解決了沒
總感覺好像哪里還有問題,但是試了好多組數(shù)據(jù),結(jié)果又都是正確的,
function sumArray(arr){
var length = arr.length
var sum = 0
for(var i = 0;i<length;i++){
sum += arr[i]
}
return sum
}
function blanceArray(left,right){
console.log('==========================')
console.log(left,right)
var leftsum = sumArray(left)
var rightsum = sumArray(right)
console.table(leftsum,rightsum)
if(leftsum>rightsum){
return false
}
if(leftsum === rightsum){
return [left,right]
} else {
var findnum = (rightsum-leftsum)/2
for(var i = 0;i<=right.length;i++){
if(right[i]===findnum){
left.push(...right.splice(i,1))
return [left,right]
}
}
left.push(right.pop())
return blanceArray(left,right)
}
}
function main(arr){
var sum = sumArray(arr)
console.log(sum)
if(sum % 2 !== 0){
return false
}
arr.sort(function(a,b){
return a<b
})
var left = [arr.shift()]
//console.log(arr)
return blanceArray(left,arr)
}
//var testarr = [2,5,6,7,8,4]
var testarr = [3,2,4,3]
var testarr = [1,3,3,6,7,8,16,2]
var result = main(testarr)
console.log(result)
你用 const content = document.createElement('div');
content.contentEditable = true;
// 簡易markdown
let timer;
content.addEventListener('input', (event) => {
clearTimeout(timer);
timer = setTimeout(() => {
// 打印你的html文本
console.log(String.fromCharCode(event.target.innerHTML));
}, 500);
event.preventDefault();
}, false);數(shù)據(jù)還存在是因為mysql數(shù)據(jù)被掛載出來了
注意看docker-compose文件里面的volume配置
將前面的http://括起來
P = re.compile('(https?://)?(?:[a-zA-Z]|[0-9]|[$-_@.&+]|[!*\(\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+')提供兩個思路:
1.分析動態(tài)鏈接
如下F12->網(wǎng)絡(luò)network->xhr里面有這些異步加載的鏈接和response
點開動態(tài)鏈接,你可以得到json格式的數(shù)據(jù)
你要做的是分析這些動態(tài)鏈接URL的規(guī)律,然后requests發(fā)出請求,獲取json數(shù)據(jù)然后用json.loads解析獲取。
2.瀏覽器內(nèi)核
這個可以參考@thechosenone的答案
歡迎關(guān)注我的專欄或微信公眾號:Python網(wǎng)絡(luò)爬蟲分享
看著是python的環(huán)境變量沒配置,找不到python導致的
你這句SQL等價于:
select a,b from atable join btable on atable.id=btable.id
什么破書……那個 choice 沒定義在那里,所以新版本不小心就沒了吧……
>>> from numpy.random import choice
>>> choice(['red', 'green'])
'red'只把Solution這個類寫好就可以了,他自己會調(diào)用這個類,你的main是不會執(zhí)行的。
其實整個流程有點像單元測試的。
def createCounter():
L = 0
def counter():
B = L +1
return B
return counter
c = createCounter()
print([c(),c(),c()])
你試一下這個。
數(shù)值是常量,而list這種數(shù)據(jù)結(jié)構(gòu),變量保存的是引用地址。和變量作用域以及變量的數(shù)據(jù)類型也有關(guān)。
def createCounter():
L = 0
def counter():
nonlocal L
L += 1
return L
return counter
c = createCounter()
print([c(),c(),c()])
不知道你為什么要這么用,可以去了解一下“閉包”、“變量作用域”等相關(guān)知識。
推薦一個用來處理時間的庫吧…arrow
https://pypi.python.org/pypi/...
你可以試試這樣
from models.theme_product import Theme_Product
如果這個還不行,試試這個
from 項目目錄.models.theme_product import Theme_Productpywin32 只是windows api的封裝, 現(xiàn)在的QQ機器人都是通過模擬瀏覽器WEBQQ的協(xié)議去做的。不過像XX群發(fā)器都是用 windows api做的。 以前我也弄過不少, 簡單點就是控制鼠標坐標,模擬點擊,模擬回車之類的。點擊前需要獲取窗口位置,當前鼠標的像素顏色等,需要一定的邏輯判斷。
有兩個內(nèi)置的模塊可以用,zlib和bz2,但是不一定能達到你要求的這個壓縮率,需要你驗證下看看,用法很簡單,這樣:
import zlib
import bz2
content = "test input string"
print len(zlib.compress(content))
print len(bz2.compress(content))
如果還希望加密,可以用第三方庫PyCrypto,如果不想用第三方庫,似乎沒什么好用的內(nèi)置加密算法,可以自己用異或做一個最簡單的加解密,通常來說加密算法不會壓縮,所以你的需求需要加密和壓縮算法一起用,如果只需要出來的是不可讀明文,壓縮就可以了,就不用加密了。
__v 是放在類下的,又不是放在實例下來的?!邦悺焙汀皩嵗北緛砭褪莾蓚€東西。
還有:
class Foo(object):
pass
這樣寫。
'select %s from score where id=%s' % (p,flag)你可以用xml的庫來實現(xiàn)字符串組織,也可以自己用xml文本硬填。比如可以定義一個字符串
a="<?xml .....省略無用的><appToken>{appToken}</appToken></xml>".format(appToken='xzxzxxxx')
然后
import json
body = json.dumps(a)
h=''#根據(jù)文檔組織xml頭
zeep.post(url='xxx',message= body,headers=h)
body就是你要發(fā)送的xml請求內(nèi)容。
你只是定義了一個Request, 定義好的Request自己并不去去建立網(wǎng)絡(luò)聯(lián)接并下載, 而是能過scrapy的Downloader和Spider來完成.
參考官方文檔:
一般來說,Request 對象在spiders中被生成并且最終傳遞到 下載器(Downloader),下載器對其進行處理并返回一個 Response 對象, Response 對象還會返回到生成request的spider中。
如果想讓他運行, 可以定義如下的spider
import scrapy
from scrapy.spiders import CrawlSpider, Rule
url = 'https://doc.scrapy.org/en/latest/intro/tutorial.html'
def ret(response):
print('start print\n')
print(response.body)
def errorcb(err):
print(err+"\n")
pass
class MySpider(CrawlSpider):
name="test"
def start_requests(self):
return [scrapy.http.Request(url=url, callback=ret, errback=errorcb)]
保存成文件scrapy_cb.py, 然后通過
scrapy runspider scrapy_cb.py
來運行
[已解決]兩個問題:
1、報錯信息呢?
2、使用域名訪問本地靜態(tài)圖片資源是什么鬼?
1、圖片放在哪個目錄下的?
2、服務(wù)器是否限制了獲取服務(wù)器圖片資源?
北大青鳥APTECH成立于1999年。依托北京大學優(yōu)質(zhì)雄厚的教育資源和背景,秉承“教育改變生活”的發(fā)展理念,致力于培養(yǎng)中國IT技能型緊缺人才,是大數(shù)據(jù)專業(yè)的國家
達內(nèi)教育集團成立于2002年,是一家由留學海歸創(chuàng)辦的高端職業(yè)教育培訓機構(gòu),是中國一站式人才培養(yǎng)平臺、一站式人才輸送平臺。2014年4月3日在美國成功上市,融資1
北大課工場是北京大學校辦產(chǎn)業(yè)為響應(yīng)國家深化產(chǎn)教融合/校企合作的政策,積極推進“中國制造2025”,實現(xiàn)中華民族偉大復興的升級產(chǎn)業(yè)鏈。利用北京大學優(yōu)質(zhì)教育資源及背
博為峰,中國職業(yè)人才培訓領(lǐng)域的先行者
曾工作于聯(lián)想擔任系統(tǒng)開發(fā)工程師,曾在博彥科技股份有限公司擔任項目經(jīng)理從事移動互聯(lián)網(wǎng)管理及研發(fā)工作,曾創(chuàng)辦藍懿科技有限責任公司從事總經(jīng)理職務(wù)負責iOS教學及管理工作。
浪潮集團項目經(jīng)理。精通Java與.NET 技術(shù), 熟練的跨平臺面向?qū)ο箝_發(fā)經(jīng)驗,技術(shù)功底深厚。 授課風格 授課風格清新自然、條理清晰、主次分明、重點難點突出、引人入勝。
精通HTML5和CSS3;Javascript及主流js庫,具有快速界面開發(fā)的能力,對瀏覽器兼容性、前端性能優(yōu)化等有深入理解。精通網(wǎng)頁制作和網(wǎng)頁游戲開發(fā)。
具有10 年的Java 企業(yè)應(yīng)用開發(fā)經(jīng)驗。曾經(jīng)歷任德國Software AG 技術(shù)顧問,美國Dachieve 系統(tǒng)架構(gòu)師,美國AngelEngineers Inc. 系統(tǒng)架構(gòu)師。