Sitemap

เทคโนโลยีและเทคนิคการสร้างเนื้อหาที่ฉันจะแสดงให้เห็นในคอลัมน์นี้ดูเหมือนไม่ใช่นิยายวิทยาศาสตร์ แต่ตอนนี้เข้าถึงได้ฟรีจริงๆ

หลังจากที่ฉันทำการทดลองเขียนโค้ดเสร็จแล้วและเริ่มเขียนบทความนี้ ฉันได้ไตร่ตรองถึงความหมายเชิงบวกและเชิงลบของการแบ่งปันข้อมูลนี้ต่อสาธารณะ

อย่างที่คุณเห็น ตอนนี้ค่อนข้างง่ายในการผลิตเนื้อหาที่สร้างโดยเครื่องจักร และคุณภาพของรุ่นต่างๆ ก็ดีขึ้นอย่างรวดเร็ว

สิ่งนี้ทำให้ฉันได้ข้อสรุปที่น่าเศร้าว่าเราจะได้เห็นผลลัพธ์ที่เป็นสแปมมากกว่าเมื่อก่อนมาก

โชคดีที่ Google เพิ่งเปิดตัวรายงานสแปมปี 2019 ซึ่งทำให้ฉันรู้สึกสบายใจ

เคยดูโฟลเดอร์สแปมอีเมลของคุณหรือไม่?ผลการค้นหาอาจมีลักษณะเช่นนี้โดยไม่มีขั้นตอนที่เราดำเนินการเพื่อต่อสู้กับสแปมในการค้นหาโพสต์ของเราในวันนี้จะกล่าวถึงวิธีที่เราทำงานเพื่อป้องกันไม่ให้สแปมในผลการค้นหาของ Google https://t.co/RA4lUoDXEF

— Google SearchLiaison (@searchliaison) วันที่ 9 มิถุนายน 2020

“ปีที่แล้ว เราสังเกตว่ามากกว่า 25 พันล้านหน้าที่เราพบในแต่ละวันเป็นสแปม (หากแต่ละหน้าเป็นหน้าในหนังสือ มันจะมี "สงครามและสันติภาพ" มากกว่า 20 ล้านเล่มในแต่ละวัน!)

ความพยายามของเราช่วยให้แน่ใจว่าการเข้าชมมากกว่า 99% จากผลลัพธ์ของเรานำไปสู่ประสบการณ์ที่ปราศจากสแปม

ในช่วงไม่กี่ปีที่ผ่านมา เราสังเกตเห็นการเพิ่มขึ้นของไซต์สแปมที่มีเนื้อหาที่สร้างขึ้นโดยอัตโนมัติและคัดลอกมาโดยมีพฤติกรรมที่สร้างความรำคาญหรือเป็นอันตรายต่อผู้ค้นหา เช่น ปุ่มปลอม โฆษณาจำนวนมาก การเปลี่ยนเส้นทางที่น่าสงสัย และมัลแวร์เว็บไซต์เหล่านี้มักจะหลอกลวงและไม่ให้คุณค่าแก่ผู้คนอย่างแท้จริงในปี 2019 เราสามารถลดผลกระทบต่อผู้ใช้ Search จากสแปมประเภทนี้ได้มากกว่า 60% เมื่อเทียบกับปี 2018”

แม้ว่า Google จะรายงานหน้าสแปมจำนวนมหาศาลต่อวัน แต่ก็รายงานอัตราความสำเร็จที่น่าประทับใจ 99% ในการระงับสแปมทั่วทั้งกระดาน

ที่สำคัญกว่านั้น พวกเขากำลังดำเนินการอย่างน่าทึ่งในการระงับเนื้อหาสแปมที่สร้างโดยเครื่อง

ในคอลัมน์นี้ ฉันจะอธิบายด้วยรหัสว่าคอมพิวเตอร์สามารถสร้างเนื้อหาโดยใช้ความก้าวหน้าล่าสุดใน NLG ได้อย่างไร

ฉันจะทบทวนทฤษฎีและแนวทางปฏิบัติเพื่อให้เนื้อหาของคุณมีประโยชน์

วิธีนี้จะช่วยให้คุณหลีกเลี่ยงการถูกจับได้ว่าเว็บสแปมทั้งหมดที่ Google และ Bing กำลังทำงานตลอดเวลาเพื่อกำจัด

หน้าเนื้อหาบาง

ในบทความของฉันเกี่ยวกับการสร้างชื่อและคำอธิบายเมตา ฉันได้แบ่งปันเทคนิคที่มีประสิทธิภาพซึ่งอาศัยการสรุปเนื้อหาของหน้าเพื่อสร้างเมตาแท็ก

เมื่อคุณทำตามขั้นตอนต่างๆ คุณจะเห็นว่ามันใช้ได้ผลดีจริงๆ และยังสามารถผลิตข้อความนวนิยายคุณภาพสูงได้อีกด้วย

แต่ถ้าหน้านั้นไม่มีเนื้อหาที่จะสรุปล่ะเทคนิคล้มเหลว

ให้ฉันบอกเคล็ดลับที่ฉลาดมากในการแก้ปัญหานี้

หากหน้าดังกล่าวมีลิงก์ย้อนกลับที่มีคุณภาพ คุณสามารถใช้ anchor text และข้อความรอบ ๆ ลิงก์ย้อนกลับเป็นข้อความเพื่อสรุปได้

รอ!

แต่ทำไม?

ผมขอย้อนกลับไปจนถึงปี 1998 จนถึงการก่อตั้งเครื่องมือค้นหาของ Google

ในบทความที่อธิบายเครื่องมือค้นหาใหม่ของพวกเขา Page และ Brin ได้แบ่งปันข้อมูลเชิงลึกที่น่าสนใจมากในหัวข้อ 2.2

“เสิร์ชเอ็นจิ้นส่วนใหญ่เชื่อมโยงข้อความของลิงก์กับหน้าที่ลิงก์นั้นอยู่ นอกจากนี้ เราเชื่อมโยงข้อมูลดังกล่าวกับหน้าที่ลิงก์ชี้ไป มีข้อดีหลายประการ ประการแรก แองเคอร์มักจะให้คำอธิบายที่ถูกต้องของหน้าเว็บมากกว่าตัวเพจเอง ประการที่สอง อาจมีจุดยึดสำหรับเอกสารที่ไม่สามารถจัดทำดัชนีโดยเครื่องมือค้นหาแบบข้อความ เช่น รูปภาพ โปรแกรม และฐานข้อมูล ทำให้สามารถส่งคืนหน้าเว็บที่ยังไม่ได้รวบรวมข้อมูลจริงๆ ได้”

นี่คือแผนทางเทคนิค:

  1. เราจะได้รับลิงก์ย้อนกลับและข้อความยึดที่เกี่ยวข้องโดยใช้ Bing Webmaster Tools ใหม่
  2. เราจะขูดข้อความโดยรอบจากลิงก์ย้อนกลับที่มีคุณภาพสูงสุด
  3. เราจะสร้างบทสรุปและเนื้อหาแบบยาวโดยใช้ข้อความที่คัดลอกมา

รายงานลิงก์ย้อนกลับของเครื่องมือเว็บมาสเตอร์ของ Bing

คุณลักษณะหนึ่งที่ฉันชอบในเครื่องมือลิงก์ย้อนกลับใหม่ใน BWT คือสามารถให้ลิงก์ที่ไม่ใช่แค่ชี้ไปยังไซต์ของคุณเอง แต่ยังรวมถึงไซต์อื่นๆ ด้วย

ฉันคาดว่าสิ่งนี้จะกลายเป็นทางเลือกฟรียอดนิยมสำหรับเครื่องมือแบบชำระเงิน

ฉันส่งออกไฟล์ CSV ที่มีรายการลิงก์และจุดยึดจำนวนมาก แต่เมื่อฉันพยายามโหลดโดยใช้ Python pandas และพบปัญหาการจัดรูปแบบจำนวนมาก

ข้อความแองเคอร์แบบสุ่มอาจมีเครื่องหมายจุลภาคและทำให้เกิดปัญหากับไฟล์ที่คั่นด้วยเครื่องหมายจุลภาค

ฉันแก้ไขได้ด้วยการเปิดไฟล์ใน Excel และบันทึกในรูปแบบ Excel

ขูดข้อความรอบข้างด้วย Python

ดังที่คุณเห็นในภาพหน้าจอด้านบน ข้อความยึดโยงหลายข้อความค่อนข้างสั้น

เราสามารถขูดหน้าเพื่อให้ได้ย่อหน้าที่ประกอบด้วย

ขั้นแรก ให้โหลดรายงานที่เราส่งออกจาก BWT

import pandas as pddf = pd.read_excel("www.domain.com_ReferringPages_6_7_2020.xlsx")df.head()

ฉันตรวจสอบ URL เป้าหมายตามจำนวนลิงก์ขาเข้าที่ใช้

df.groupby("Target Url").count().tail()

ฉันดึงลิงก์ย้อนกลับจากหน้าใดหน้าหนึ่งเพื่อประเมินแนวคิดโดยใช้รหัสนี้

backlinks = set(df[df["Target Url"] == "https://domain.com/example-page"]["Source Url"])

ตอนนี้ มาดูกันว่าเราจะใช้ URL เป้าหมายและลิงก์ย้อนกลับเพื่อดึงข้อความจุดยึดที่เกี่ยวข้องซึ่งรวมถึงจุดยึดได้อย่างไร

กำลังดึงข้อความจากลิงก์ย้อนกลับ

ขั้นแรก มาติดตั้งคำร้องขอ-html

!pip install requests-htmlfrom requests_html import HTMLSessionsession = HTMLSession()

เพื่อให้โค้ดเรียบง่าย ฉันจะสร้างตัวเลือก CSS ด้วยตนเองเพื่อดึงข้อความรอบๆ ลิงก์

การคำนวณนี้ไม่ยากเนื่องจากลิงก์และจุดยึดบนหน้าโดยใช้โค้ด JavaScript หรือ Python

บางทีอาจเป็นความคิดที่ดีสำหรับคุณที่จะลองทำการบ้าน

เปิดหน้าลิงก์ย้อนกลับตัวอย่างและใช้เครื่องมือสำหรับนักพัฒนาซอฟต์แวร์ Chrome คุณสามารถคลิกขวาที่ย่อหน้าที่สนใจและคัดลอกตัวเลือก CSS

นี่คือตัวเลือกที่ฉันใช้

with session.get(url) as r:    selector="#entry-78782 > div.asset-content.entry-content > div > p:nth-child(5)"    paragraph = r.html.find(selector, first=True)    text = paragraph.text

นี่คือข้อความที่กลับมาฉันทำให้ข้อความของ anchor text ตัวอย่างเป็นตัวหนา

เรารู้ว่าการรักษาครูช่วยปรับปรุงผลลัพธ์สำหรับนักเรียน และในทางกลับกัน การหมุนเวียนของครูอาจเป็นอันตรายต่อความสำเร็จของนักเรียนนักการศึกษาประมาณ 16 เปอร์เซ็นต์ออกจากภาคสนามทุกปี และเรารู้ว่าครูจำนวนมากเช่นฉัน ลาออกภายในห้าปีแรกครูรายงานว่าเหตุผลที่ใหญ่ที่สุดที่พวกเขาลาออกคือการขาดอิสระและเสียง ควบคู่ไปกับประเด็นทางวัฒนธรรมและโดยเฉพาะอย่างยิ่งเรื่องวินัยยิ่งไปกว่านั้น มูลค่าการซื้อขายยังทำให้พื้นที่ขาดตลาดมากถึง 2.2 พันล้านดอลลาร์ต่อปี

เอาล่ะ มาถึงส่วนที่สนุกแล้ว!

การสร้างข้อความประสาท

เราจะใช้โค้ดการสรุปแบบเดียวกับที่ใช้สร้างชื่อและคำอธิบายเมตาในบทความที่แล้วของฉัน แต่มีจุดพลิกผัน

แทนที่จะระบุความยาวสรุปที่ต้องการให้สั้นกว่าย่อหน้าเดิม เราจะระบุความยาวที่ยาวกว่ามันจะได้ผลไหม?มาดูกัน!

!pip install transformersfrom transformers import pipelinesummarizer = pipeline('summarization')generated_text = summarizer(text, min_length=150, max_length=250)print(generated_text)

ฉันได้รับคำเตือนที่น่าสนใจนี้

max_length ของคุณถูกตั้งค่าเป็น 250 แต่คุณ input_length เพียง 99คุณอาจลองลด max_length ด้วยตนเอง เช่น ตัวสรุป (‘…’, max_length=50)

มาดูข้อความที่สร้างขึ้น

[{'summary_text': "Around 16 percent of educators leave the field every year. Teachers report that the biggest reasons they leave are lack of autonomy and voice, alongside issues of culture and discipline. Turnover is costly, shorting districts upwards of $2.2 billion a year, according to a report by the National Council of Teachers of English, the nation's largest teacher organization. The report also found that teacher retention improves outcomes for students, and conversely, that teacher turnover can harm student achievement. The study was published in the Journal of Education, published by Simon & Schuster, a division of Penguin Random House, on November 14. For more, visit www.simonandschuster.com. For confidential support, call the National Suicide Prevention Lifeline at 1-800-273-8255 or visit http://www.suicidepreventionlifeline.org/."}]

ข้อความต้นฉบับมี 492 อักขระและข้อความที่สร้างขึ้น 835

แต่ให้ดูที่คุณภาพและประโยคนวนิยายที่แสดงขึ้นในข้อความที่สร้างขึ้นแน่นอน เหลือเชื่อ!

เทคนิคนี้สามารถสร้างข้อความที่ยาวขึ้นได้หรือไม่?ใช่!

generated_text = summarizer(text, min_length=300, max_length=600)print(generated_text)[{'summary_text': "Around 16 percent of educators leave the field every year. Teachers report that the biggest reasons they leave are lack of autonomy and voice, alongside issues of culture and discipline. Turnover is costly, shorting districts upwards of $2.2 billion a year, according to a report by the National Council of Teachers of English, the nation's largest teacher organization. The report also found that teacher retention improves outcomes for students, and conversely, that teacher turnover can harm student achievement. The study was published in the Journal of Education, published by Simon & Schuster, a division of Penguin Random House, on November 14. For more, visit www.simonandschuster.com. For confidential support, call the National Suicide Prevention Lifeline at 1-800-273-8255 or visitxa0http://www.suicidepreventionlifeline.org/. For support in the U.S., call the Samaritans on 08457 90 90 90 or visit a local Samaritans branch, see www.samaritans.org for details. In the UK, contact the National College of Education on 0300 123 90 90, orxa0 visitxa0the Samaritansxa0in the UK. For help in the United States, callxa0thexa0National Suicide Prevention Line on 1xa0800xa0273xa08255,xa0orxa0inxa0the UK on 0800xa0123xa09255. For support on suicide matters in thexa0U.S. call thexa0Nationalxa0Collegexa0of Education,xa0Englandxa0on 08457xa090 90 90. For information on suicide prevention in the UK andxa0Europe, visit the Nationalxa0College of England and Wales."}]

ข้อความที่สร้างขึ้นนี้มีอักขระ 1,420 ตัวและคงความต่อเนื่องของตรรกะไว้!

สัตว์ร้ายที่ขับเคลื่อนเทคนิคนี้เป็นแบบจำลองจาก Facebook ชื่อ BART

ผู้เขียนบทความอธิบายว่าเป็นรูปแบบทั่วไปของ BERT

เรามาดูกันว่ามันทำงานอย่างไร

วิธีการทำงานของการสร้างข้อความประสาท

คุณเคยทำการทดสอบความถนัดหรือ IQ โดยจะแสดงลำดับของตัวเลขและคุณต้องเดาอีกหรือไม่?

โดยพื้นฐานแล้ว นั่นคือสิ่งที่โมเดลของเราทำด้านบนเมื่อเราให้ข้อความเริ่มต้นและขอให้แบบจำลองของเราคาดการณ์ว่าจะเกิดอะไรขึ้นต่อไป

มันเปลี่ยนข้อความเริ่มต้นของเราเป็นลำดับของตัวเลข เดาหมายเลขถัดไป และใช้ลำดับใหม่ที่มีหมายเลขที่เดา และทำซ้ำขั้นตอนเดิมอีกครั้ง

สิ่งนี้จะดำเนินต่อไปจนกว่าจะถึงขีดจำกัดความยาวที่เรากำหนด

ตอนนี้สิ่งเหล่านี้ไม่ได้เป็นเพียงตัวเลขธรรมดา แต่เป็นเวกเตอร์และโดยเฉพาะอย่างยิ่ง (ในกรณีของ BERT และ BART) การฝังคำแบบสองทิศทาง

ฉันอธิบายเวกเตอร์และการฝังคำแบบสองทิศทางโดยใช้การเปรียบเทียบ GPS ในบทความการเรียนรู้เชิงลึกตอนที่ 1 และตอนที่ 2โปรดตรวจสอบให้แน่ใจว่าได้ตรวจสอบแล้ว

โดยสรุป การฝังจะเข้ารหัสข้อมูลจำนวนมากเกี่ยวกับคำที่แสดง ซึ่งจะช่วยเพิ่มคุณภาพของการคาดคะเนได้อย่างมาก

นี่คือตัวอย่างหนึ่งของวิธีการทำงาน

จากข้อความ: “ภาษาการเขียนโปรแกรมที่ดีที่สุดสำหรับ SEO ที่ทำงานซ้ำๆ คือ ____ และสำหรับ SEO ที่ทำการตรวจสอบส่วนหน้าคือ ____” เราขอให้โมเดลเติมประโยคให้สมบูรณ์

ขั้นตอนแรกคือการแปลงคำเป็นตัวเลข/การฝัง โดยที่การฝังแต่ละรายการจะระบุคำในบริบท

จากนั้น ให้กลายเป็นปริศนาที่คอมพิวเตอร์สามารถแก้ได้เพื่อหาตัวเลข/การฝังที่สามารถเติมลงในช่องว่างตามบริบทได้

อัลกอริทึมที่สามารถไขปริศนาประเภทนี้ได้เรียกว่าแบบจำลองภาษา

รูปแบบภาษาคล้ายกับกฎไวยากรณ์ในภาษาอังกฤษหรือภาษาอื่นๆ

ตัวอย่างเช่น หากข้อความเป็นคำถาม จะต้องลงท้ายด้วยเครื่องหมายคำถาม

ความแตกต่างคือคำและสัญลักษณ์ทั้งหมดแสดงด้วยตัวเลข/การฝัง

ที่น่าสนใจคือในการเรียนรู้เชิงลึก (สิ่งที่เราใช้ที่นี่) คุณไม่จำเป็นต้องสร้างรายการกฎไวยากรณ์จำนวนมากด้วยตนเอง

โมเดลจะเรียนรู้กฎเกณฑ์เชิงประจักษ์ผ่านการลองผิดลองถูกที่มีประสิทธิภาพ

ซึ่งจะทำในช่วงที่เรียกว่า pre-training ซึ่งโมเดลได้รับการฝึกอบรมผ่านคลังข้อมูลขนาดใหญ่เป็นเวลาหลายวัน และใช้ฮาร์ดแวร์ที่ทรงพลังมาก

ส่วนที่ดีที่สุดสำหรับเราคือผลลัพธ์ของความพยายามเหล่านี้ทำให้ทุกคนใช้งานได้ฟรี

เราไม่โชคดีจริงๆเหรอ?

BERT เป็นตัวอย่างหนึ่งของโมเดลภาษา GPT-2 และ BART ก็เช่นกัน

วิธีใช้สิ่งนี้ให้ดี

ดังที่ฉันได้กล่าวไว้ข้างต้น สิ่งนี้มีประสิทธิภาพจริงๆ และสามารถใช้เพื่อปั่นเนื้อหาที่ไร้ประโยชน์ในขนาดที่ค่อนข้างถูก

โดยส่วนตัวฉันไม่ต้องการเสียเวลาลุยขยะในขณะที่ค้นหา

เมื่อเวลาผ่านไป ฉันได้ตระหนักว่าเพื่อให้เนื้อหาแสดงในการค้นหา จะต้อง:

  • จะมีประโยชน์.
  • สนองความต้องการที่แท้จริง

หากไม่เป็นเช่นนั้น ไม่ว่าจะเป็นคอมพิวเตอร์หรือที่มนุษย์สร้างขึ้น ก็จะไม่ได้รับการมีส่วนร่วมหรือการตรวจสอบจากผู้ใช้ปลายทาง

โอกาสในการจัดอันดับและผลงานต่ำมาก

นี่คือเหตุผลที่ฉันชอบเทคนิคต่างๆ เช่น การสรุปและการแปล หรือคำถาม/คำตอบ ซึ่งคุณสามารถควบคุมรุ่นต่างๆ ได้มากขึ้น

พวกเขาสามารถช่วยให้แน่ใจว่าคุณกำลังเพิ่มมูลค่าใหม่

โครงการชุมชนและแหล่งเรียนรู้

ฉันพยายามทำให้บทความนี้เป็นโค้ดและคำอธิบายที่ง่ายที่สุดเท่าที่จะเป็นไปได้เพื่อให้ผู้คนในชุมชนเข้าร่วมสนุกได้มากขึ้น

แต่ถ้าคุณมีความโน้มเอียงทางเทคนิคมากขึ้น ฉันคิดว่าคุณจะชอบคำอธิบายหัวข้อที่ละเอียดและละเอียดกว่านี้

อย่าลืมติดตามลิงก์ใน "ส่วนการอ่านเพิ่มเติม" ในบทความที่เชื่อมโยงด้านบน

ตอนนี้มีข่าวที่น่าตื่นเต้นบางอย่าง

ฉันขอให้ชุมชนแบ่งปันโครงการ Python ที่พวกเขากำลังทำงานอยู่ฉันคาดหวังไว้สักกำมือหนึ่ง และฉันก็รู้สึกทึ่งกับจำนวนที่ได้รับกลับมา #อย่ารอช้า 🐍🔥

อันนี้คือ Python และ JS แต่ฉันจะเอามันออกไป!ส่วนขยาย Chrome สำหรับป้องกันสแปมบน Google Mapsรหัสเซิร์ฟเวอร์อยู่ใน Python และทำการตรวจสอบความถูกต้องและการจัดประเภทที่อยู่ pic.twitter.com/Rvzfr5ku4N

– zchtodd (@zchtodd) วันที่ 8 มิถุนายน 2020

1.RPA ใน python เพื่อทำให้การจับภาพหน้าจอซ้ำ ๆ เป็นอัตโนมัติ https://t.co/zyaafY0bcd
2.ค้นหาคอนโซล API + NLP เพื่อตรวจสอบหน้าที่คำในชื่อเมตาไม่ตรงกับข้อความค้นหาที่ใช้โดยผู้เยี่ยมชม: https://t.co/KsYGds7w1r

– Michael Van Den Reym (@vdrweb) วันที่ 8 มิถุนายน 2020

3.ตรวจสอบรหัสสถานะของ URL ทั้งหมดด้วยการแสดงผลของคอนโซลการค้นหาโดยใช้คอนโซลการค้นหา API https://t.co/qX0FxSoqgN

– Michael Van Den Reym (@vdrweb) วันที่ 8 มิถุนายน 2020

สวัสดีแฮมเล็ต!

ฉันกำลังทำงานกับตัวตรวจสอบการเปลี่ยนเส้นทางที่มีความสามารถในการจับคู่แบบคลุมเครือ

จะมีโน้ตบุ๊ก @GoogleColab แต่ในอุดมคติแล้ว ฉันยังต้องการปรับใช้ใน @streamlit เพื่อให้ผู้คนสามารถประเมินคุณภาพของการเปลี่ยนเส้นทางได้ใน 1 คลิก ผ่านการลากและวาง

เดี๋ยวจะมาแชร์นะครับ 🙂

– Charly Wargnier (@DataChaz) วันที่ 9 มิถุนายน 2020

@hamletbatista https://t.co/oPt5M393Lu
ทำงานกับสิ่งนี้โดยใช้ @streamlit
เขียนชื่อ Meta ที่น่าสนใจยิ่งขึ้น
วิดีโออธิบาย: https://t.co/YvVoFMQ4FS

— Anubhav Bittoo Narula (@anubhavn22) 9 มิถุนายน 2020

Scrapear redes sociales y pasarlo por npl o Red neuronal para saber el sentimiento del escrito y de ahí sacar gráficas con datastudio o kibana (perdona que responsea en español pero mi inglés es bastante mejorable)

— JaviLázaro (@JaviLazaroSEO) วันที่ 8 มิถุนายน 2020

1.อ่านล็อกไฟล์และโพสต์ 5xx/4xx ตามเวลาจริงเพื่อหย่อน!
2.ความตั้งใจของคำหลักเทียบกับคะแนนการจับคู่ URL

– Venus Kalra (@venuskalra) วันที่ 9 มิถุนายน 2020

https://t.co/9we85HXJgJ

– Marat Gaziev (@MaratGaziev) วันที่ 9 มิถุนายน 2020

ฉันกำลังสร้างแพ็คเกจสำหรับ #SEO และนักการตลาดออนไลน์ ซึ่งประกอบด้วย:
– โปรแกรมรวบรวมข้อมูล
– ตัวทดสอบ robots.txt
– ตัวตรวจสอบ SERP
– แผนผังเว็บไซต์เพื่อแปลง DataFrame
– URL ไปยังตัวแปลง DataFrame

และอื่นๆ 🙂 https://t.co/BMVeeQaTxE

– Elias Dabbas (@eliasdabbas) วันที่ 9 มิถุนายน 2020

การวิเคราะห์เนื้อหาบางส่วนด้วย Beautiful Soup + Knowledge box API + Cloud Entity API!🐍🐍🐍

– Jess แต่ห่างออกไป 6 ฟุต (@jessthebp) 8 มิถุนายน 2020

แหล่งข้อมูลเพิ่มเติม:


เครดิตรูปภาพ

ภาพหน้าจอทั้งหมดถ่ายโดยผู้เขียน มิถุนายน 2020

ทุกประเภท: บล็อก