国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當前位置: 首頁 > news >正文

臨沂網(wǎng)站seo互聯(lián)網(wǎng)營銷師考試題庫

臨沂網(wǎng)站seo,互聯(lián)網(wǎng)營銷師考試題庫,營銷型網(wǎng)站模板免費下載,昆山做網(wǎng)站公司全國大學生數(shù)學建模比賽中,深度學習可以成為解決復(fù)雜問題的有力手段。 一、深度學習的優(yōu)勢在比賽中的體現(xiàn) 強大的模式識別能力:深度學習模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)&#xff0…

全國大學生數(shù)學建模比賽中,深度學習可以成為解決復(fù)雜問題的有力手段。

一、深度學習的優(yōu)勢在比賽中的體現(xiàn)

  1. 強大的模式識別能力:深度學習模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),在處理圖像、文本、時間序列等數(shù)據(jù)方面表現(xiàn)出卓越的性能。在數(shù)學建模比賽中,可能會遇到需要對圖像進行分類、對文本進行情感分析或?qū)r間序列數(shù)據(jù)進行預(yù)測等問題,深度學習可以有效地提取數(shù)據(jù)中的特征,提高模型的準確性。
  2. 自動特征提取:與傳統(tǒng)的機器學習方法相比,深度學習模型能夠自動從原始數(shù)據(jù)中學習特征,無需人工設(shè)計特征。這在處理大規(guī)模、高維度數(shù)據(jù)時尤為重要,可以節(jié)省大量的時間和精力。
  3. 良好的泛化能力:經(jīng)過充分訓練的深度學習模型通常具有較好的泛化能力,能夠在新的數(shù)據(jù)上表現(xiàn)出良好的性能。這對于數(shù)學建模比賽中未知的測試數(shù)據(jù)非常關(guān)鍵,能夠提高模型的可靠性和實用性。

二、在比賽中應(yīng)用深度學習的步驟

  1. 問題理解與數(shù)據(jù)收集:

    • 首先,深入理解比賽問題的背景和要求,確定需要解決的具體問題。
    • 然后,收集與問題相關(guān)的各種數(shù)據(jù),包括訓練數(shù)據(jù)和測試數(shù)據(jù)。數(shù)據(jù)的質(zhì)量和數(shù)量對深度學習模型的性能至關(guān)重要。
  2. 數(shù)據(jù)預(yù)處理:

    • 對收集到的數(shù)據(jù)進行預(yù)處理,包括數(shù)據(jù)清洗、歸一化、標準化等操作。對于圖像數(shù)據(jù),可能還需要進行裁剪、縮放、旋轉(zhuǎn)等增強操作,以增加數(shù)據(jù)的多樣性。
    • 將數(shù)據(jù)劃分為訓練集、驗證集和測試集,用于模型的訓練、調(diào)參和評估。
  3. 模型選擇與搭建:

    • 根據(jù)問題的特點和數(shù)據(jù)的類型,選擇合適的深度學習模型。例如,對于圖像分類問題,可以選擇 CNN;對于文本處理問題,可以選擇 RNN 或 Transformer 架構(gòu)。
    • 使用深度學習框架,如 TensorFlow、PyTorch 等,搭建所選的模型??梢詮默F(xiàn)有的開源模型開始,根據(jù)需要進行修改和調(diào)整。
  4. 模型訓練與調(diào)參:

    • 使用訓練集對模型進行訓練,調(diào)整模型的參數(shù),以最小化損失函數(shù)??梢圆捎秒S機梯度下降等優(yōu)化算法,設(shè)置適當?shù)膶W習率、批次大小等參數(shù)。
    • 在訓練過程中,使用驗證集對模型進行評估,及時調(diào)整模型的結(jié)構(gòu)和參數(shù),防止過擬合。可以采用正則化、Dropout 等技術(shù)來提高模型的泛化能力。
  5. 模型評估與改進:

    • 使用測試集對訓練好的模型進行最終評估,計算模型的準確率、召回率、F1 值等指標,評估模型的性能。
    • 根據(jù)評估結(jié)果,分析模型存在的問題,如過擬合、欠擬合等,采取相應(yīng)的改進措施,如增加數(shù)據(jù)量、調(diào)整模型結(jié)構(gòu)、改進訓練方法等。

三、注意事項與挑戰(zhàn)

  1. 計算資源需求:深度學習模型通常需要大量的計算資源,包括 GPU 等硬件設(shè)備。在比賽中,可能需要合理安排計算資源,提高計算效率。
  2. 數(shù)據(jù)量要求:深度學習模型需要大量的訓練數(shù)據(jù)才能發(fā)揮出良好的性能。在數(shù)據(jù)量有限的情況下,可以考慮采用數(shù)據(jù)增強、遷移學習等技術(shù)來提高模型的性能。
  3. 模型解釋性:深度學習模型通常具有較高的復(fù)雜性,難以解釋其決策過程。在比賽中,可能需要對模型的結(jié)果進行解釋和說明,以增強模型的可信度。
  4. 時間限制:數(shù)學建模比賽通常有時間限制,需要在有限的時間內(nèi)完成模型的訓練和評估。因此,需要合理安排時間,選擇合適的模型和算法,提高建模效率。

總之,在全國大學生數(shù)學建模比賽中,深度學習可以為解決復(fù)雜問題提供強大的工具。但在應(yīng)用深度學習時,需要充分考慮問題的特點、數(shù)據(jù)的類型和計算資源等因素,選擇合適的模型和算法,并進行充分的實驗和調(diào)參,以提高模型的性能和可靠性。

例題案例:

1.?TensorFlow框架的基本使用(5-1)

  1. 獲取訓練數(shù)據(jù)

構(gòu)建一個簡單的線性模型:W,b為參數(shù),W=2,b=1,運用tf.random.normal() 產(chǎn)生1000個隨機數(shù),產(chǎn)生x,y數(shù)據(jù)。

用matplotlib庫,用藍色繪制訓練數(shù)據(jù)。

  1. 定義模型

通過對樣本數(shù)據(jù)的離散圖可以判斷,呈線性規(guī)律變化,因此可以建立一個線性模型,即?,把該線性模型定義為一個簡單的類,里面封裝了變量和計算,變量設(shè)置用tf.Variable()。

  1. 定義損失函數(shù)

損失函數(shù)是衡量給定輸入的模型輸出與期望輸出的匹配程度,采用均方誤差(L2范數(shù)損失函數(shù))。

  1. 模型訓練

運用數(shù)據(jù)和模型來訓練得到模型的變量(W和b),觀察W和b的變化(使用matplotlib繪制W和b的變化情況曲線)。

import tensorflow as tf
import matplotlib.pyplot as plt# 步驟1:生成訓練數(shù)據(jù)
num_samples = 1000
true_W = 2
true_b = 1
inputs = tf.random.normal(shape=(num_samples,))
noise = tf.random.normal(shape=(num_samples,))
outputs = inputs * true_W + true_b + noise# 繪制訓練數(shù)據(jù)
plt.scatter(inputs, outputs, c='b', label='Training data')
plt.xlabel('Input')
plt.ylabel('Output')
plt.legend()
plt.show()# 步驟2:定義模型
class LinearModel(tf.Module):def __init__(self):self.W = tf.Variable(tf.random.normal(shape=(), stddev=0.1))self.b = tf.Variable(tf.random.normal(shape=(), stddev=0.1))def __call__(self, x):return self.W * x + self.b# 步驟3:定義損失函數(shù)
def loss(y_true, y_pred):return tf.reduce_mean(tf.square(y_true - y_pred))# 步驟4:模型訓練
model = LinearModel()
learning_rate = 0.1
epochs = 50
history_W, history_b = [], []for epoch in range(epochs):with tf.GradientTape() as tape:current_loss = loss(outputs, model(inputs))dW, db = tape.gradient(current_loss, [model.W, model.b])model.W.assign_sub(learning_rate * dW)model.b.assign_sub(learning_rate * db)history_W.append(model.W.numpy())history_b.append(model.b.numpy())# 可視化W和b的變化
plt.plot(history_W, label='W')
plt.plot(history_b, label='b')
plt.xlabel('Epochs')
plt.ylabel('Values')
plt.legend()
plt.show()

?

?

2.?多層神經(jīng)網(wǎng)絡(luò)分類(5-2)

  1. 數(shù)據(jù)獲取與預(yù)處理

MNIST 數(shù)據(jù)集來自美國國家標準與技術(shù)研究所, National Institute of Standards and Technology (NIST). 訓練集 (training set) 由來自 250 個不同人手寫的數(shù)字構(gòu)成, 其中 50% 是高中學生, 50% 來自人口普查局 (the Census Bureau) 的工作人員. 測試集(test set) 也是同樣比例的手寫數(shù)字數(shù)據(jù)。

每張圖像的大小都是28x28像素。MNIST數(shù)據(jù)集有60000張圖像用于訓練和10000張圖像用于測試,其中每張圖像都被標記了對應(yīng)的數(shù)字(0-9)。

  1. 加載數(shù)據(jù)集
  2. 查看數(shù)據(jù)集

  1. 歸一化處理

  1. 模型構(gòu)建
  1. 模型定義

  1. 編譯模型

  1. 輸出模型參數(shù)

  1. 模型訓練
  1. 訓練

  1. 獲取訓練歷史數(shù)據(jù)中的各指標值

  1. 繪制指標在訓練過程中的變化圖

  1. 模型評估

使用測試集對模型進行評估

代碼:

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
# 加載MNIST數(shù)據(jù)集
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 輸出第一張圖片和對應(yīng)的標簽
# 查看訓練集中的一張圖像和對應(yīng)的標簽
plt.imshow(x_train[0], cmap='gray')
plt.title(f"Label: {x_train[0]}")
plt.axis('off')
plt.show()
# 查看測試集中的一張圖像和對應(yīng)的標簽
plt.imshow(x_test[0], cmap='gray')
plt.title(f"Label: {x_test[0]}")
plt.axis('off')
plt.show()
# 對輸入數(shù)據(jù)進行歸一化處理
x_train = x_train / 255.0
x_test = x_test / 255.0
# 定義顯示圖片的函數(shù)
def plot_images(images):plt.imshow(images, cmap='binary')plt.show()
# 構(gòu)建神經(jīng)網(wǎng)絡(luò)模型
model = tf.keras.models.Sequential([tf.keras.layers.Flatten(input_shape=(28,28)),  # 將輸入展平為一維數(shù)組tf.keras.layers.Dense(256, activation='relu'),  # 全連接層,使用ReLU激活函數(shù)tf.keras.layers.Dropout(0.2),  # Dropout層,可以防止過擬合tf.keras.layers.Dense(128, activation='relu'), # 全連接層,使用ReLU激活函數(shù)tf.keras.layers.Dense(64, activation='relu'),tf.keras.layers.Dense(10, activation='softmax')  # 輸出層,使用softmax激活函數(shù)輸出分類概率
])
# 編譯模型
model.compile(optimizer='adam',loss='sparse_categorical_crossentropy',  # 使用交叉熵損失函數(shù)metrics=['sparse_categorical_accuracy'])# 輸出模型結(jié)構(gòu)
model.summary()
# 訓練模型
history = model.fit(x_train, y_train, epochs=50, validation_split=0.2, verbose=1)
train_loss = history.history['loss']
val_loss = history.history['val_loss']
train_accuracy = history.history['sparse_categorical_accuracy']
val_accuracy = history.history['val_sparse_categorical_accuracy']
# 生成圖形
plt.figure(figsize=(12, 4))
# Loss 圖
plt.subplot(1, 2, 1)
plt.plot(train_loss, label='Training Loss')
plt.plot(val_loss, label='Validation Loss')
plt.title('Training and Validation Loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
# Accuracy 圖
plt.subplot(1, 2, 2)
plt.plot(train_accuracy, label='Training Accuracy')
plt.plot(val_accuracy, label='Validation Accuracy')
plt.title('Training and Validation Accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()
plt.show()test_loss, test_accuracy = model.evaluate(x_test, y_test)
print(f"Test Loss: {test_loss}")
print(f"Test Accuracy: {test_accuracy}")

?

?

3.?多層神經(jīng)網(wǎng)絡(luò)回歸(5-3)

  1. 數(shù)據(jù)獲取與預(yù)處理

Auto MPG 數(shù)據(jù)集,它記錄了各種汽車效能指標MPG(Mile Per Gallon)與氣缸數(shù)、重量、馬力等因素的真實數(shù)據(jù)。除了產(chǎn)地的數(shù)字字段表示類別外,其他字段都是數(shù)值類型。對于產(chǎn)地地段,1 表示美國,2 表示歐洲,3 表示日本。

  1. 加載數(shù)據(jù)集

column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight',

????????????????'Acceleration', 'Model Year', 'Origin'] ??????#選定需要的數(shù)據(jù)特征

raw_dataset = pd.read_csv('./data/auto-mpg.data', names=column_names,

??????????????????????na_values = "?", comment='\t',

??????????????????????sep=" ", skipinitialspace=True) ???#讀取剛下載的數(shù)據(jù)

  1. 數(shù)據(jù)清洗

統(tǒng)計數(shù)據(jù)集中各列中空值的個數(shù),并刪除包含空值的行。

  1. 將Origin列轉(zhuǎn)換為one-hot(獨熱)編碼。
  2. 數(shù)據(jù)探索
  • 使用describe方法查看數(shù)據(jù)的統(tǒng)計指標
  • 使用seaborn庫中pairplot方法繪制"MPG", "Cylinders", "Displacement", "Weight"四列的聯(lián)合分布圖
  1. 數(shù)據(jù)標準化

labels = dataset.pop('MPG') ?#從數(shù)據(jù)集中取出目標值MPG

#數(shù)據(jù)標準化

from?sklearn.preprocessing import?StandardScaler

def?norm(x):

??return?(x - train_stats['mean']) / train_stats['std'] #標準化公式

scaler = StandardScaler()

normed_dataset = scaler.fit_transform(dataset)

  1. 劃分訓練集與測試集

#拆分訓練數(shù)據(jù)集和測試數(shù)據(jù)集,將數(shù)據(jù)集拆分為一個訓練數(shù)據(jù)集和一個測試數(shù)據(jù)集。

X_train, X_test, Y_train, Y_test = train_test_split(normed_dataset,labels,test_size=0.2,random_state=0)

  1. 模型構(gòu)建
  1. 模型定義

model = tf.keras.Sequential([

????tf.keras.layers.Dense(64, activation='relu', input_shape=[X_train.shape[1]]),

????tf.keras.layers.Dense(64, activation='relu'),

????tf.keras.layers.Dense(1)

??])

  1. 編譯模型

loss='mse'??#損失用mse

optimizer='adam'

metrics=['mae', 'mse'])

  1. 輸出模型參數(shù)

print(model.summary())

  1. 模型訓練
  1. 訓練

epochs=100,

validation_split = 0.2

verbose=1

  1. 獲取訓練歷史數(shù)據(jù)中的各指標值

mae = history.history['mae']

val_mae = history.history['val_mae']

mse = history.history['mse']

val_mse = history.history['val_mse']

  1. 繪制指標在訓練過程中的變化圖

plt.figure(1)

plt.plot(mae, label='Training MAE')

plt.plot(val_mae, label='Validation MAE')

plt.title('Training and Validation MAE')

plt.legend()

?

plt.figure(2)

plt.plot(mse, label='Training MSE')

plt.plot(val_mse, label='Validation MSE')

plt.title('Training and Validation MSE')

plt.legend()

plt.show()

  1. 模型評估

使用測試集對模型進行評估

# 測試模型

model.evaluate(X_test, Y_test, verbose=1)

代碼:

# -*- coding: utf-8 -*-
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import tensorflow as tf
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
# 加載數(shù)據(jù)集
column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight','Acceleration', 'Model Year', 'Origin']
raw_dataset = pd.read_csv('auto-mpg.data', names=column_names,na_values = "?", comment='\t',sep=" ", skipinitialspace=True)
print(raw_dataset)
# 數(shù)據(jù)清洗
dataset = raw_dataset.dropna()
# 將Origin列轉(zhuǎn)換為one-hot編碼
dataset['Origin'] = dataset['Origin'].map({1: 'USA', 2: 'Europe', 3: 'Japan'})
dataset = pd.get_dummies(dataset, columns=['Origin'], prefix='', prefix_sep='')
# 數(shù)據(jù)探索
print(dataset.describe())
sns.pairplot(dataset[['MPG', 'Cylinders', 'Displacement', 'Weight']], diag_kind='kde')
# 數(shù)據(jù)標準化
labels = dataset.pop('MPG')
train_stats = dataset.describe().transpose()
def norm(x):return (x - train_stats['mean']) / train_stats['std']
normed_dataset = norm(dataset)
# 劃分訓練集與測試集
X_train, X_test, Y_train, Y_test = train_test_split(normed_dataset, labels, test_size=0.2, random_state=0)
# 模型構(gòu)建
model = tf.keras.Sequential([tf.keras.layers.Dense(64, activation='relu', input_shape=[X_train.shape[1]]),tf.keras.layers.Dropout(0.3),tf.keras.layers.Dense(64, activation='relu'),tf.keras.layers.Dropout(0.2),tf.keras.layers.Dense(64, activation='relu'),tf.keras.layers.Dense(1)
])
# 編譯模型
model.compile(loss='mse', optimizer='adam', metrics=['mae', 'mse'])# 輸出模型參數(shù)
print(model.summary())
# 模型訓練
history = model.fit(X_train, Y_train, epochs=1000, validation_split=0.3, verbose=1)
# 獲取訓練歷史數(shù)據(jù)中的各指標值
mae = history.history['mae']
val_mae = history.history['val_mae']
mse = history.history['mse']
val_mse = history.history['val_mse']
plt.figure()
plt.plot(mae, label='Training MAE')
plt.plot(val_mae, label='Validation MAE')
plt.title('Training and Validation MAE')
plt.legend()
plt.show()
plt.figure()
plt.plot(mse, label='Training MSE')
plt.plot(val_mse, label='Validation MSE')
plt.title('Training and Validation MSE')
plt.legend()
plt.show()
# 模型評估
h1=model.evaluate(X_test, Y_test, verbose=1)
print(h1)

?

?

?

數(shù)據(jù)集例樣:

18.0 ? 8 ? 307.0 ? ? ?130.0 ? ? ?3504. ? ? ?12.0 ? 70 ?1?? ?"chevrolet chevelle malibu"
15.0 ? 8 ? 350.0 ? ? ?165.0 ? ? ?3693. ? ? ?11.5 ? 70 ?1?? ?"buick skylark 320"
18.0 ? 8 ? 318.0 ? ? ?150.0 ? ? ?3436. ? ? ?11.0 ? 70 ?1?? ?"plymouth satellite"
16.0 ? 8 ? 304.0 ? ? ?150.0 ? ? ?3433. ? ? ?12.0 ? 70 ?1?? ?"amc rebel sst"
17.0 ? 8 ? 302.0 ? ? ?140.0 ? ? ?3449. ? ? ?10.5 ? 70 ?1?? ?"ford torino"
15.0 ? 8 ? 429.0 ? ? ?198.0 ? ? ?4341. ? ? ?10.0 ? 70 ?1?? ?"ford galaxie 500"
14.0 ? 8 ? 454.0 ? ? ?220.0 ? ? ?4354. ? ? ? 9.0 ? 70 ?1?? ?"chevrolet impala"
14.0 ? 8 ? 440.0 ? ? ?215.0 ? ? ?4312. ? ? ? 8.5 ? 70 ?1?? ?"plymouth fury iii"
14.0 ? 8 ? 455.0 ? ? ?225.0 ? ? ?4425. ? ? ?10.0 ? 70 ?1?? ?"pontiac catalina"
15.0 ? 8 ? 390.0 ? ? ?190.0 ? ? ?3850. ? ? ? 8.5 ? 70 ?1?? ?"amc ambassador dpl"
15.0 ? 8 ? 383.0 ? ? ?170.0 ? ? ?3563. ? ? ?10.0 ? 70 ?1?? ?"dodge challenger se"
14.0 ? 8 ? 340.0 ? ? ?160.0 ? ? ?3609. ? ? ? 8.0 ? 70 ?1?? ?"plymouth 'cuda 340"
15.0 ? 8 ? 400.0 ? ? ?150.0 ? ? ?3761. ? ? ? 9.5 ? 70 ?1?? ?"chevrolet monte carlo"
14.0 ? 8 ? 455.0 ? ? ?225.0 ? ? ?3086. ? ? ?10.0 ? 70 ?1?? ?"buick estate wagon (sw)"
24.0 ? 4 ? 113.0 ? ? ?95.00 ? ? ?2372. ? ? ?15.0 ? 70 ?3?? ?"toyota corona mark ii"
22.0 ? 6 ? 198.0 ? ? ?95.00 ? ? ?2833. ? ? ?15.5 ? 70 ?1?? ?"plymouth duster"
18.0 ? 6 ? 199.0 ? ? ?97.00 ? ? ?2774. ? ? ?15.5 ? 70 ?1?? ?"amc hornet"
21.0 ? 6 ? 200.0 ? ? ?85.00 ? ? ?2587. ? ? ?16.0 ? 70 ?1?? ?"ford maverick"
27.0 ? 4 ? 97.00 ? ? ?88.00 ? ? ?2130. ? ? ?14.5 ? 70 ?3?? ?"datsun pl510"
26.0 ? 4 ? 97.00 ? ? ?46.00 ? ? ?1835. ? ? ?20.5 ? 70 ?2?? ?"volkswagen 1131 deluxe sedan"
25.0 ? 4 ? 110.0 ? ? ?87.00 ? ? ?2672. ? ? ?17.5 ? 70 ?2?? ?"peugeot 504"
24.0 ? 4 ? 107.0 ? ? ?90.00 ? ? ?2430. ? ? ?14.5 ? 70 ?2?? ?"audi 100 ls"
25.0 ? 4 ? 104.0 ? ? ?95.00 ? ? ?2375. ? ? ?17.5 ? 70 ?2?? ?"saab 99e"
26.0 ? 4 ? 121.0 ? ? ?113.0 ? ? ?2234. ? ? ?12.5 ? 70 ?2?? ?"bmw 2002"
21.0 ? 6 ? 199.0 ? ? ?90.00 ? ? ?2648. ? ? ?15.0 ? 70 ?1?? ?"amc gremlin"
10.0 ? 8 ? 360.0 ? ? ?215.0 ? ? ?4615. ? ? ?14.0 ? 70 ?1?? ?"ford f250"
10.0 ? 8 ? 307.0 ? ? ?200.0 ? ? ?4376. ? ? ?15.0 ? 70 ?1?? ?"chevy c20"
11.0 ? 8 ? 318.0 ? ? ?210.0 ? ? ?4382. ? ? ?13.5 ? 70 ?1?? ?"dodge d200"
9.0 ? ?8 ? 304.0 ? ? ?193.0 ? ? ?4732. ? ? ?18.5 ? 70 ?1?? ?"hi 1200d"
27.0 ? 4 ? 97.00 ? ? ?88.00 ? ? ?2130. ? ? ?14.5 ? 71 ?3?? ?"datsun pl510"
28.0 ? 4 ? 140.0 ? ? ?90.00 ? ? ?2264. ? ? ?15.5 ? 71 ?1?? ?"chevrolet vega 2300"
25.0 ? 4 ? 113.0 ? ? ?95.00 ? ? ?2228. ? ? ?14.0 ? 71 ?3?? ?"toyota corona"
25.0 ? 4 ? 98.00 ? ? ?? ? ? ? ? ?2046. ? ? ?19.0 ? 71 ?1?? ?"ford pinto"
19.0 ? 6 ? 232.0 ? ? ?100.0 ? ? ?2634. ? ? ?13.0 ? 71 ?1?? ?"amc gremlin"
16.0 ? 6 ? 225.0 ? ? ?105.0 ? ? ?3439. ? ? ?15.5 ? 71 ?1?? ?"plymouth satellite custom"
17.0 ? 6 ? 250.0 ? ? ?100.0 ? ? ?3329. ? ? ?15.5 ? 71 ?1?? ?"chevrolet chevelle malibu"
19.0 ? 6 ? 250.0 ? ? ?88.00 ? ? ?3302. ? ? ?15.5 ? 71 ?1?? ?"ford torino 500"
18.0 ? 6 ? 232.0 ? ? ?100.0 ? ? ?3288. ? ? ?15.5 ? 71 ?1?? ?"amc matador"
14.0 ? 8 ? 350.0 ? ? ?165.0 ? ? ?4209. ? ? ?12.0 ? 71 ?1?? ?"chevrolet impala"
14.0 ? 8 ? 400.0 ? ? ?175.0 ? ? ?4464. ? ? ?11.5 ? 71 ?1?? ?"pontiac catalina brougham"
14.0 ? 8 ? 351.0 ? ? ?153.0 ? ? ?4154. ? ? ?13.5 ? 71 ?1?? ?"ford galaxie 500"
14.0 ? 8 ? 318.0 ? ? ?150.0 ? ? ?4096. ? ? ?13.0 ? 71 ?1?? ?"plymouth fury iii"
12.0 ? 8 ? 383.0 ? ? ?180.0 ? ? ?4955. ? ? ?11.5 ? 71 ?1?? ?"dodge monaco (sw)"
13.0 ? 8 ? 400.0 ? ? ?170.0 ? ? ?4746. ? ? ?12.0 ? 71 ?1?? ?"ford country squire (sw)"
13.0 ? 8 ? 400.0 ? ? ?175.0 ? ? ?5140. ? ? ?12.0 ? 71 ?1?? ?"pontiac safari (sw)"
18.0 ? 6 ? 258.0 ? ? ?110.0 ? ? ?2962. ? ? ?13.5 ? 71 ?1?? ?"amc hornet sportabout (sw)"
22.0 ? 4 ? 140.0 ? ? ?72.00 ? ? ?2408. ? ? ?19.0 ? 71 ?1?? ?"chevrolet vega (sw)"
19.0 ? 6 ? 250.0 ? ? ?100.0 ? ? ?3282. ? ? ?15.0 ? 71 ?1?? ?"pontiac firebird"
18.0 ? 6 ? 250.0 ? ? ?88.00 ? ? ?3139. ? ? ?14.5 ? 71 ?1?? ?"ford mustang"
23.0 ? 4 ? 122.0 ? ? ?86.00 ? ? ?2220. ? ? ?14.0 ? 71 ?1?? ?"mercury capri 2000"
28.0 ? 4 ? 116.0 ? ? ?90.00 ? ? ?2123. ? ? ?14.0 ? 71 ?2?? ?"opel 1900"
30.0 ? 4 ? 79.00 ? ? ?70.00 ? ? ?2074. ? ? ?19.5 ? 71 ?2?? ?"peugeot 304"
30.0 ? 4 ? 88.00 ? ? ?76.00 ? ? ?2065. ? ? ?14.5 ? 71 ?2?? ?"fiat 124b"
31.0 ? 4 ? 71.00 ? ? ?65.00 ? ? ?1773. ? ? ?19.0 ? 71 ?3?? ?"toyota corolla 1200"
35.0 ? 4 ? 72.00 ? ? ?69.00 ? ? ?1613. ? ? ?18.0 ? 71 ?3?? ?"datsun 1200"
27.0 ? 4 ? 97.00 ? ? ?60.00 ? ? ?1834. ? ? ?19.0 ? 71 ?2?? ?"volkswagen model 111"
26.0 ? 4 ? 91.00 ? ? ?70.00 ? ? ?1955. ? ? ?20.5 ? 71 ?1?? ?"plymouth cricket"
24.0 ? 4 ? 113.0 ? ? ?95.00 ? ? ?2278. ? ? ?15.5 ? 72 ?3?? ?"toyota corona hardtop"
25.0 ? 4 ? 97.50 ? ? ?80.00 ? ? ?2126. ? ? ?17.0 ? 72 ?1?? ?"dodge colt hardtop"
23.0 ? 4 ? 97.00 ? ? ?54.00 ? ? ?2254. ? ? ?23.5 ? 72 ?2?? ?"volkswagen type 3"
20.0 ? 4 ? 140.0 ? ? ?90.00 ? ? ?2408. ? ? ?19.5 ? 72 ?1?? ?"chevrolet vega"
21.0 ? 4 ? 122.0 ? ? ?86.00 ? ? ?2226. ? ? ?16.5 ? 72 ?1?? ?"ford pinto runabout"
13.0 ? 8 ? 350.0 ? ? ?165.0 ? ? ?4274. ? ? ?12.0 ? 72 ?1?? ?"chevrolet impala"
14.0 ? 8 ? 400.0 ? ? ?175.0 ? ? ?4385. ? ? ?12.0 ? 72 ?1?? ?"pontiac catalina"
15.0 ? 8 ? 318.0 ? ? ?150.0 ? ? ?4135. ? ? ?13.5 ? 72 ?1?? ?"plymouth fury iii"
14.0 ? 8 ? 351.0 ? ? ?153.0 ? ? ?4129. ? ? ?13.0 ? 72 ?1?? ?"ford galaxie 500"
17.0 ? 8 ? 304.0 ? ? ?150.0 ? ? ?3672. ? ? ?11.5 ? 72 ?1?? ?"amc ambassador sst"
11.0 ? 8 ? 429.0 ? ? ?208.0 ? ? ?4633. ? ? ?11.0 ? 72 ?1?? ?"mercury marquis"
13.0 ? 8 ? 350.0 ? ? ?155.0 ? ? ?4502. ? ? ?13.5 ? 72 ?1?? ?"buick lesabre custom"
12.0 ? 8 ? 350.0 ? ? ?160.0 ? ? ?4456. ? ? ?13.5 ? 72 ?1?? ?"oldsmobile delta 88 royale"
13.0 ? 8 ? 400.0 ? ? ?190.0 ? ? ?4422. ? ? ?12.5 ? 72 ?1?? ?"chrysler newport royal"
19.0 ? 3 ? 70.00 ? ? ?97.00 ? ? ?2330. ? ? ?13.5 ? 72 ?3?? ?"mazda rx2 coupe"

http://aloenet.com.cn/news/31376.html

相關(guān)文章:

  • 重慶高端網(wǎng)站建設(shè)江蘇搜索引擎優(yōu)化
  • 商丘網(wǎng)站建設(shè)專業(yè)現(xiàn)狀營銷策劃與運營方案
  • 濰坊網(wǎng)站開發(fā)公司秒收錄關(guān)鍵詞代發(fā)
  • 利用帝國軟件如何做網(wǎng)站qq空間秒贊秒評網(wǎng)站推廣
  • 網(wǎng)站發(fā)產(chǎn)品ps怎么做產(chǎn)品圖友情貼吧
  • 百度網(wǎng)站沒收錄百度賬戶安全中心
  • 有專門教做蛋糕的網(wǎng)站重慶網(wǎng)站推廣軟件
  • 物流網(wǎng)站建設(shè)哪個好智慧軟文發(fā)稿平臺官網(wǎng)
  • 網(wǎng)站一般在哪建設(shè)網(wǎng)絡(luò)推廣人員
  • app界面設(shè)計流程圖河北搜索引擎優(yōu)化
  • 深圳做網(wǎng)站好的公司外貿(mào)推廣優(yōu)化公司
  • qq怎么做網(wǎng)站客服企業(yè)推廣策略
  • 對政府網(wǎng)站一體化服務(wù)建設(shè)的需求百度投放廣告一天多少錢
  • 烏魯木齊可以做網(wǎng)站的公司有哪些重慶網(wǎng)站seo教程
  • 網(wǎng)站開發(fā)語言是什么app開發(fā)多少錢
  • 西安企業(yè)網(wǎng)站建設(shè)哪家好怎么用手機創(chuàng)建網(wǎng)站
  • 什么網(wǎng)站ppt做的好免費的seo優(yōu)化工具
  • 日語網(wǎng)站設(shè)計怎么做百度推廣平臺
  • 資陽視頻網(wǎng)站建設(shè)廣州seo服務(wù)公司
  • 房地產(chǎn)網(wǎng)站解決方案女孩子做運營是不是壓力很大
  • 企業(yè)網(wǎng)站 asp php網(wǎng)絡(luò)優(yōu)化工具app手機版
  • 哪些專門做批發(fā)的網(wǎng)站有哪些短網(wǎng)址鏈接生成
  • 網(wǎng)站制作文案杭州長治seo顧問
  • seo發(fā)布網(wǎng)站某網(wǎng)站搜索引擎優(yōu)化
  • 網(wǎng)站開發(fā)包含上線嗎網(wǎng)絡(luò)營銷的六大功能
  • wordpress網(wǎng)站例昆明網(wǎng)絡(luò)營銷
  • 在國外做盜版電影網(wǎng)站嗎seo發(fā)帖工具
  • 做內(nèi)貿(mào)的網(wǎng)站武漢網(wǎng)站設(shè)計十年樂云seo
  • 做網(wǎng)站需要備案么長沙seo培訓班
  • 撫順市城市建設(shè)檔案館網(wǎng)站安卓優(yōu)化大師新版